منصة راصدة تحليلية لقضايا حقوق الإنسان

عنف بلا عواقب.. هل يعيد الذكاء الاصطناعي إنتاج الانحياز ضد النساء؟

03 أبريل 2026
اتهامات للذكاء الاصطناعي بالتمييز الجندري
اتهامات للذكاء الاصطناعي بالتمييز الجندري

لم تعد مجرد أداة محايدة، بل باتت فاعلا مؤثرا في تشكيل الوعي الجمعي وإنتاج المعرفة، إذ تدخلت تقنيات الذكاء الاصطناعي في الإعلام والتوظيف والرعاية الصحية، ما أدى إلى تزايد المخاوف من أن هذه الأنظمة لا تكتفي بعكس الواقع، بل إعادة إنتاج أسوأ ما فيه، وعلى رأسه التمييز الجندري.

وتعتمد أنظمة الذكاء الاصطناعي على قاعدة بيانات ضخمة، لكنها ليست بريئة في بعض الأحيان، فهي غالبا ما تعكس تاريخا من عدم المساواة بين الجنسين، ما يؤدي إلى ما يُعرف بـ”التحيز الخوارزمي”، وتحذّر دراسات حديثة من أن هذه الأنظمة قد تتعلم الأنماط التمييزية القائمة وتعيد إنتاجها بشكل أكثر اتساعا وتأثيرا.

وبحسب منظمة “اليونسكو”، فإن 44% من أنظمة الذكاء الاصطناعي تظهر تحيزاً جندرياً في نتائجها، كما أن 78% من الشركات لا تعالج التحيز في أنظمة الذكاء الاصطناعي بشكل كافٍ.

ولا يتوقف الأمر عند مجرد الانعكاس، بل قد يتضاعف التحيز، إذ أظهرت أبحاث على نماذج توليد الصور أن الذكاء الاصطناعي يميل إلى تصوير النساء بسمات نمطية (الأصغر سنا، الأكثر وسامة ورشاقة)، مقابل تصوير الرجال بصفات القوة والهيمنة، ما يعزز الصور النمطية التقليدية للجنسين.

وعادة فإن التحيز الجندري في الذكاء الاصطناعي لا يظهر فقط في الصور أو النصوص، بل يمتد إلى أشكال أكثر خطورة من العنف الرقمي، مثل استبعاد النساء من فرص العمل عبر أنظمة التوظيف الآلي، وضعف دقة تقنيات التعرف على الوجوه للنساء مقارنة بالرجال، وتضخيم خطاب الكراهية والتحرش عبر المنصات الرقمية، بحسب المنتدى الاقتصادي العالمي.

وفي سياق متصل، أظهرت بيانات حديثة أن نسبة كبيرة من الإساءات الرقمية الموجهة عبر الإنترنت تحمل طابعا جنسيا أو متحيزا ضد النساء، ما يطرح السؤال الأكثر تعقيدا ليس ما إذا كان الذكاء الاصطناعي متحيزا، بل: هل هو مجرد مرآة للمجتمع أم أداة لإعادة تشكيله؟

ويرى خبراء أن المشكلة تكمن في أن الذكاء الاصطناعي لا يكتفي بعكس التحيز بل قد يضخمه، نظرا لسرعته وانتشاره وقدرته على التأثير في قرارات حساسة مثل التوظيف أو القروض أو حتى الأحكام القضائية.

ويبرز أخطر أبعاد هذه القضية في غياب المساءلة، فالقرارات التي تنتجها الخوارزميات غالبا ما تكون غير شفافة، مما يصعب تحديد المسؤولية في المبرمجين أم في الشركات المطورة أم في البيانات نفسها، وهذا الغموض يخلق ما يمكن وصفه بـ”عنف بلا عواقب”، حيث تتضرر الفئات المهمشة دون وجود آليات واضحة للإنصاف أو المحاسبة.

ويقف العالم اليوم أمام مفترق طرق، إما أن يصبح الذكاء الاصطناعي أداة لتعزيز العدالة والمساواة، وإما أن يتحول إلى آلية متقدمة لإعادة إنتاج التمييز والعنف الجندري بشكل أكثر تعقيدا وتأثيرا وخفاءً.

إعادة إنتاج التمييز

ووفق ما رأته الحقوقية والخبيرة في قضايا المرأة بمصر، انتصار السعيد، فإن تقنيات الذكاء الاصطناعي أسهمت بشكل ما في إعادة إنتاج التمييز الجندري، لا سيما ضد النساء، بما قد يحمله أحيانا من أشكال عنف غير مرئية أو بلا مساءلة.

وأوضحت السعيد، في حديث لـ”صفر”، أن “الذكاء الاصطناعي ليس كائنا واعيا بالمعنى الذي يتصوره كثيرون، بل هو انعكاس لما نغذيه به من بيانات ومعلومات وصور وفيديوهات”، مضيفة: “إذا كانت هذه البيانات تتضمن تمييزا ضد النساء، فمن الطبيعي أن يتعلم هذا التحيز ويعيد إنتاجه بكل الأنماط”.

وأشارت إلى أن الذكاء الاصطناعي، في هذا السياق، لا يخلق الأزمة من العدم، بل يسهم في تضخيمها وتعميقها وسرعة انتشارها، وهو ما يفسر تكرار الصور النمطية في مخرجاته، حيث يُربط الرجل بالقيادة والقوة والسيطرة، بينما تُحصر النساء في أدوار تقليدية أو أقل من العادية.

ولفتت الناشطة النسوية المصرية إلى أن هذه الأنماط ليست سوى نتيجة مباشرة لاعتماد هذه الأنظمة الرقمية الحديثة على بيانات منحازة تعزز هذا التصور وتعيد إنتاجه وترسيخه في المجتمعات.

وفي ما يتعلق بالحلول، شددت السعيد على ضرورة التعامل الواعي مع التكنولوجيا، دون خوف أو رفض، داعية إلى تطوير أنظمة الذكاء الاصطناعي اعتمادا على بيانات أكثر عدالة وتوازنا وإنصافا، لتعكس تنوع الأدوار وتدعم حقوق المرأة.

كما أكدت ضرورة مراجعة هذه الأنظمة الرقمية بشكل مستمر قبل استخدامها، وعدم التعامل مع مخرجاتها باعتبارها حقائق مطلقة، مشيرة إلى أن السعي نحو بناء عالم أكثر عدلا هو السبيل لضمان توظيف التكنولوجيا بما ينصف المرأة ويعزز مكانتها ويدعم حقوقها.

تحيزات تاريخية متراكمة

من جانبه، قال الدكتور أحمد غازي، المدير الإقليمي في المركز العربي الأوروبي لحقوق الإنسان، إنه في ظل التسارع التكنولوجي المتسارع، بات الذكاء الاصطناعي عنصرا محوريا في اتخاذ قرارات تؤثر بشكل مباشر على حياتنا اليومية، مثل التوظيف والتعليم والخدمات المالية، وغيرها من المجالات الحيوية.

وأضاف غازي، في حديث لـ”صفر”، أن وتيرة التطور في تقنيات الذكاء الاصطناعي لا تزال تتسارع بشكل لافت، حيث يظهر يوميا ما هو أكثر تقدما من سابقه، ما يفرض تحديات متزايدة على المستويات كافة.

وتساءل: “هل هذه التكنولوجيا محايدة بالفعل؟”، مجيبا: “في الواقع، يمكن أن يتحول الذكاء الاصطناعي إلى أداة تُكرس التمييز الجندري إذا لم يخضع لضوابط قانونية وأخلاقية واضحة”.

وأوضح أن جوهر المشكلة يكمن في البيانات التي تتدرب عليها هذه الأنظمة، فإذا كانت هذه البيانات تحمل تحيزات تاريخية ضد النساء أو أي فئة جندرية أخرى، فإن الذكاء الاصطناعي سيعيد إنتاج هذه التحيزات، ولكن بوتيرة أسرع وعلى نطاق أوسع.

وأكد أن دور القانون وحقوق الإنسان يبرز في هذا السياق، إذ يُعد مبدأ عدم التمييز والمساواة من المبادئ الأساسية التي لا يجوز الإخلال بها، سواء في الواقع المادي أو الفضاء الرقمي.

وأشار إلى أن هذه المبادئ راسخة في المواثيق الدولية، مثل الإعلان العالمي لحقوق الإنسان، واتفاقية القضاء على جميع أشكال التمييز ضد المرأة “سيداو”، والتي تُلزم الدول بضمان عدم وقوع أي شكل من أشكال التمييز، المباشر أو غير المباشر، بما في ذلك التمييز الناتج عن استخدام التكنولوجيا.

اختبارات للرصد الدوري

وفي ما يتعلق بالحلول، شدد غازي، على أن مواجهة التمييز الجندري في ظل هذا التسارع التكنولوجي تتطلب بناء منظومة متكاملة تجمع بين التطوير التقني والتشريعات الفاعلة والوعي المجتمعي.

وأوضح أن ذلك يستلزم تحسين جودة البيانات لضمان تمثيل عادل لمختلف الفئات، ومراجعتها تاريخيا لاكتشاف وإزالة التحيزات المتراكمة، إلى جانب تصميم خوارزميات أكثر عدالة، وإجراء اختبارات دورية على الأنظمة لرصد أي انحياز جندري، مع إدماج معايير المساواة وعدم التمييز في جميع مراحل تطوير البرمجيات.

كما دعا إلى سن تشريعات واضحة تُلزم الشركات بالشفافية والمساءلة في استخدام تقنيات الذكاء الاصطناعي، وربط تطبيقاتها بمعايير حقوق الإنسان، وعلى رأسها مبدأ عدم التمييز.

واختتم بالتأكيد على أهمية إشراك النساء ومختلف الفئات في تصميم وتطوير هذه التقنيات، لما للتنوع من دور في الحد من التحيزات غير المقصودة، إلى جانب ضرورة تدريب المستخدمين وصناع القرار على فهم مخاطر التحيز الرقمي وآليات التعامل معه.

ولكي تصبح التكنولوجيا أداة للإنصاف لا وسيلة لتعزيز الظلم، بات من الضروري تبني مقاربة شاملة تجمع بين تطوير البيانات والخوارزميات بما يضمن العدالة، ووضع أطر قانونية واضحة، وتعزيز الوعي المجتمعي بأهمية حقوق الإنسان والمساواة بين الجنسين.

وسلامة المستقبل الرقمي لا تقتصر على الذكاء الاصطناعي وحده، بل تتوقف على خياراتنا نحن كبشر، هل سنوظفه لتعزيز العدالة والمساواة، أم لإعادة إنتاج الانحيازات القديمة بوتيرة أسرع وانتشار أوسع؟ والإجابة عن هذا السؤال ستكون حاسمة في تحديد ما إذا كانت التكنولوجيا ستصبح أداة تمكين للمرأة والمجتمع، أم مجرد مرآة تعكس التمييز والتحيزات المتجذرة.

Picture of فيولا فهمي
فيولا فهمي
صحفية متخصصة في قضايا الحريات وحقوق الإنسان