صورة مولد بالذكاء الاصطناعي

في الوقت الذي يحتفل فيه العالم باليوم العالمي للعدالة الاجتماعية (20 شباط/فبراير)، يقف البشر أمام تحول تكنولوجي هائل يَعِدُ بإعادة صياغة المستقبل.

ومع ذلك، فإن الذكاء الاصطناعي ليس كياناً محايداً يسقط من الفراغ، بل هو نتاج بياناتنا، وتاريخنا، وانحيازاتنا المتراكمة. إن السؤال الجوهري اليوم ليس عما إذا كان الذكاء الاصطناعي ذكياً بما يكفي، بل عما إذا كان عادلاً بما يكفي. فبينما يفتح آفاقاً غير مسبوقة لتمكين النساء وتقليص الفجوات المهنية، فإنه يواجه خطراً داهماً يتمثل في “أتمتة التمييز”.

وأتمتة التمييز هي عملية نقل الانحيازات البشرية (سواء كانت عرقية أو جندرية أو طبقية) من الواقع الاجتماعي إلى أنظمة الحاسوب والخوارزميات، بحيث تصبح الآلة هي من يمارس التمييز بشكل تلقائي ومنظم دون تدخل بشري مباشر.
بمعنى آخر: هي تحويل “الظلم” من سلوك فردي أو مؤسساتي يمكن ملاحظته ومحاسبته، إلى “كود برمجي” صامت يتخذ قرارات إقصائية ضد فئة معينة (مثل النساء) بناءً على بيانات الماضي.

إننا اليوم، إذا لم نضبط الخوارزميات بمعايير أخلاقية صارمة، فلن نبتكر مستقبلاً جديداً، بل سنعيد إنتاج إقصاء الماضي بصيغة رقمية فائقة السرعة، مما ينقل معركة المساواة من الشوارع والمؤسسات إلى قلب الأكواد البرمجية ومستودعات البيانات.

الذكاء الاصطناعي: سلاح ذو حدين

الواقع الرقمي يضعنا أمام مسارين متوازيين فيما يخص تمكين المرأة والعدالة الاجتماعية:

أولاً: الوجه المشرق (أبواب الفرص المفتوحة)
يمتلك الذكاء الاصطناعي القدرة على كسر الحواجز التقليدية التي واجهت النساء لعقود عبر مرونة العمل السيبراني، حيث تتيح الأدوات الذكية نماذج عمل مرنة (عن بُعد وساعات غير نمطية)، مما يساعد النساء على التوفيق بين الطموح المهني والمسؤوليات الاجتماعية دون الاضطرار إلى المفاضلة بينهما.

ونجحت النساء أيضاً في الحصول على ديمقراطية المعرفة، حيث توفر منصات التعلم المعتمدة على الذكاء الاصطناعي فرصاً تعليمية مخصصة تسمح للنساء في المناطق المهمشة بالوصول إلى خبرات تقنية عالية الجودة وبتكلفة زهيدة.

وقدم الذكاء الاصطناعي للنساء ميزة تحييد التقييم البشري: فإذا صُممت الخوارزميات بدقة، يمكنها تقييم الكفاءة بناءً على المهارة والخبرة فقط، متجاهلة الجندر أو الهوية، مما يفتح فرصاً عادلة في التوظيف والترقية.

ثانياً: الوجه المظلم (إعادة إنتاج الإقصاء)
هنا بالضبط يكمن الخطر على النساء والفئات الضعيفة؛ فالذكاء الاصطناعي يتعلم من “البيانات التاريخية”، وإذا كانت هذه البيانات محملة بالانحياز، فإن الآلة ستكررها وتضخمها.

ونرى ذلك في فجوة البيانات (Data Gap): فعندما تعتمد قواعد البيانات على تجارب الرجال فقط في مجالات كالطب أو الهندسة، تصبح النتائج قاصرة عن فهم احتياجات النساء ومواجهة تحدياتهن.

كما نراه في تهديد الاستقرار الوظيفي: إذ تشير الدراسات إلى أن الوظائف التي تشغلها النساء تاريخياً (كالإدارة المكتبية وخدمة العملاء) هي الأكثر عرضة للأتمتة، مما قد يفاقم فجوة البطالة ما لم تُطلق برامج عاجلة لإعادة التأهيل المهني.

ويبدو هذا الإقصاء مؤثراً في خوارزميات التوظيف المنحازة؛ فقد سُجلت حالات لأنظمة استبعدت طلبات توظيف النساء لأنها “تعلمت” آلياً أن الناجحين في مناصب معينة كانوا تاريخياً من الرجال، مما يكرر الفجوة بصبغة تكنولوجية.

كيف نجعل الذكاء الاصطناعي شريكاً في العدالة؟

لتحقيق عدالة اجتماعية رقمية حقيقية، لا بد من الانتقال من التنظير إلى السياسات العملية عبر ثلاثة محاور أساسية:

المحور الأول: تمثيل النساء في البرمجة؛ فلا يمكن بناء نظام عادل دون مشاركة النساء في تطويره وتدريب خوارزمياته، فالتنوع في فرق العمل يضمن تنوعاً في الرؤى البرمجية.

المحور الثاني: التدقيق الأخلاقي والمستمر؛ إذ يجب أن تخضع الأنظمة الذكية لرقابة أخلاقية دورية (Auditing) للتأكد من خلوها من الانحياز الجندري، مع الالتزام بتعديل المسارات الخوارزمية لضمان الإنصاف.

المحور الثالث: شمولية البيانات؛ وذلك عبر تغذية الآلة ببيانات متنوعة وشاملة تعكس تجارب النساء والرجال على حد سواء، لضمان مخرجات تعبر عن المجتمع بكل أطيافه.

في الختام، لن يمنحنا الذكاء الاصطناعي العدالة تلقائياً؛ فهو ببساطة يعزز ما نزرعه فيه. إذا أردنا خلق “فرص”، فعلينا أن نصممها بوعي وإرادة إنسانية، أما إذا تجاهلنا الانحياز الكامن في البيانات، فسنحصل على “إقصاء فائق السرعة”. العدالة في عصر الآلة تبدأ من قيم الإنسان الذي يبرمجها.

شارك المنشور

مقالات ذات صلة

Scroll to Top