منصة راصدة تحليلية لقضايا حقوق الإنسان

هل يمكن للذكاء الاصطناعي أن يُميّز إذا كان عاجزاً عن تبرير قراراته؟

26 أبريل 2026
إيلون ماسك
إيلون ماسك

عندما رفعت شركة «إكس إيه آي» دعوى قضائية ضد ولاية كولورادو هذا الشهر بسبب قانون يستهدف «التمييز الخوارزمي»، بدا الأمر وكأنه مواجهة سياسية فرضها واقع تكنولوجي سريع التغير، لكن في جوهره، يطرح النزاع أسئلة أعمق بكثير: ما معنى أن نكون ديمقراطيين؟ وما معنى أن نكون بشراً؟

القانون يستهدف أنظمة الذكاء الاصطناعي المستخدمة في تقديم خدمات مثل التعليم والإسكان والصحة والتمويل، ومنها بعض الخدمات الحكومية، وبإقراره، تحدّى مشرّعو كولورادو جزءاً كبيراً من صناعة الذكاء الاصطناعي، فضلاً عن توجه البيت الأبيض نحو وضع إطار فيدرالي موحّد لتنظيم هذه التكنولوجيا.

الآن، يسعى إيلون ماسك عبر شركته «إكس إيه آي» المطوّرة لنموذج اللغة الكبير «غروك» إلى إسقاط القانون، بحجة أنه ينتهك حرية التعبير، ويفرض على الشركة تعديل نموذجها ليعكس ما تصفه بـ«وجهات نظر مثيرة للجدل» لدى المشرعين.

لكن هذا الاعتراض يبدو مبالغاً فيه، فالقانون، في جوهره، يطالب بالشفافية بشأن مخاطر التحيز، ويفرض واجب الحيطة لتجنب التمييز غير القانوني، وفي أقصى الحالات، يقيّد استخدام «غروك» في اتخاذ قرارات توزيع الموارد ضمن القطاعات التي حددتها حكومة كولورادو.

وراء هذه التفاصيل القانونية، تكمن مسألة أعمق وأكثر إثارة: القانون يُخضع قرارات الذكاء الاصطناعي لمطلب أساسي هو «التبرير»، فمجرد القول إن «الذكاء الاصطناعي قال ذلك» لا يكفي لتبرير قرارات تتعلق بتوزيع خدمات أو موارد، خاصة عندما يكون هناك احتمال لتمييز غير عادل.

لماذا؟ أحد الأسباب ديمقراطي بالأساس، فتقديم أسباب مشروعة لكيفية معاملتنا هو جوهر سيادة القانون: أي إن ممارسة السلطة يجب أن تستند إلى قواعد معروفة علناً وتُطبّق على الجميع، ويصبح هذا المبدأ أكثر أهمية في الديمقراطيات الانتخابية، حيث لا يقتصر الأمر على القوانين نفسها، بل يشمل أيضاً من يضعونها ويطبقونها، إذ يجب أن يكونوا خاضعين للمساءلة أمام المواطنين عن قراراتهم.

ومفهوم «المساءلة» بحد ذاته كاشف: ففي الأنظمة الديمقراطية القائمة على القانون، يجب على من يمارس السلطة أن يقدّم حساباً عمّا يفعل؛ أي أن يقدّم أسباباً وتبريرات كافية، وأن يكون عرضة للمحاسبة من قبل من يتأثرون بقراراته.

هذا الدور المحوري للتبرير كان في صلب نظريات الفيلسوف الألماني يورغن هابرماس، وكذلك المفكر الأمريكي جون رولز، لكن أهمية التبرير لا تقتصر على السياسة، بل تمتد إلى العلاقات الإنسانية اليومية.

فعندما نحاول إقناع الآخرين بوجهة نظرنا أو دفعهم إلى اتخاذ قرار ما، يُطلب منا تقديم أسباب، ففرض الطاعة دون تبرير يُعد شكلاً من أشكال التعسف وانتهاكاً للاحترام المتبادل. الفكرة الجوهرية هنا أننا، بوصفنا مواطنين وبشراً، مدينون لبعضنا البعض بتقديم الأسباب.

وفي هذا السياق، يمكن فهم التمييز غير العادل على أنه غياب التبرير: حين تحصل مجموعة على أقل من غيرها دون سبب مقنع، ومن هذا المنطلق، فإن ما تطلبه كولورادو ليس سوى أن تقدّم أنظمة الذكاء الاصطناعي أسباباً كافية لتبرير أي معاملة مختلفة، كما هو الحال في كل المجالات الأخرى.

وتُظهر الدعوى أن شركة «إكس إيه آي» منزعجة بشكل خاص من استثناء التحيزات المصممة «لزيادة التنوع أو معالجة التمييز التاريخي» من تعريف التمييز الخوارزمي، وهو خيار تشريعي يبدو غريباً بالفعل، إذ كان يمكن ببساطة الرجوع إلى قوانين مكافحة التمييز القائمة لتحديد مدى مشروعية مثل هذه السياسات.

والمفارقة أن مذكرة الشركة نفسها تمثل محاولة جادة وإن لم تكن ناجحة لتقديم تبرير، فالشركة، أو محاموها على الأقل، يدركون ضرورة تقديم أسباب يمكن للآخرين اعتبارها مشروعة، لكن السؤال الأصعب هو: هل تستطيع نماذج اللغة الكبيرة مثل «غروك» أن تبرر بنفسها قراراتها بشكل كامل؟

تخيّل، على سبيل المثال، أن مالك عقار في كولورادو أو طبيباً يحدد أولوية المرضى يستخدم «غروك» لتقرير من يحصل على منزل أو سرير في مستشفى، مع إلزام النظام بتقديم أسباب لقراراته، ماذا بعد؟ إذا تمكن «غروك» من تقديم تبريرات كافية تثبت عدم مخالفته لقوانين التمييز، وتمكن مطوّروه من توثيق ذلك، فقد يفي بمتطلبات القانون، لكن المطلب الإنساني الأعمق للتبرير يتجاوز ذلك بكثير.

فحتى لو استطاعت هذه النماذج عرض مسار «تفكيرها»، فهذا لا يكفي؛ لأن الاعتراف بأننا مدينون لبعضنا البعض بالتبرير يعني الاعتراف بالمساواة بيننا، بكل ما يستلزمه ذلك من التزام أخلاقي متبادل. وهذا حتى الآن التزام لا يستطيع تحمّله إلا البشر.

نقلاً عن فاينانشيال تايمز