منصة راصدة تحليلية لقضايا حقوق الإنسان

المراهقون يلجؤون إلى روبوتات الدردشة.. الذكاء الاصطناعي يهدد الحق في الصحة النفسية

28 أبريل 2026

استعرض مقدم برنامج “لاست ويك تونايت” جون أوليفر، اتساع استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي في السنوات الأخيرة، مع انتشار تطبيقات متعددة تبدأ من ChatGPT من OpenAI وصولاً إلى أدوات أخرى تقدم أشكالاً مختلفة من التفاعل الرقمي.

ووفقاً لما نقلته صحيفة “الغارديان” أوضح أوليفر أن هذه الروبوتات أصبحت جزءاً من الاستخدام اليومي على نطاق عالمي واسع، إذ حصدت ChatGPT وحدها أكثر من 800 مليون مستخدم أسبوعياً، وهو ما يعكس حجم التحول في العلاقة بين المستخدمين والتقنيات الذكية.

وأشار إلى أن هذا الانتشار لا يقتصر على البالغين فقط، بل يمتد إلى فئات عمرية صغرى، في ظل اعتماد متزايد على هذه الأدوات في مجالات تتجاوز الاستخدامات التقنية التقليدية.

تحول في الدعم النفسي

كشف جون أوليفر، أن واحداً من كل ثمانية مراهقين يلجأ إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على نصائح تتعلق بالصحة النفسية، في مؤشر يعكس تحولاً مهماً في طبيعة مصادر الدعم التي يعتمد عليها الشباب.

وأضاف أن هذا الاستخدام المتزايد يعكس تغيراً في أنماط البحث عن المساندة النفسية، حيث لم تعد العلاقات الإنسانية أو المؤسسات المتخصصة هي المصدر الوحيد، بل أصبحت الأنظمة الرقمية جزءاً من هذا المجال الحساس.

وأشار إلى أن هذا التحول يحدث بالتوازي مع ارتفاع عدد المستخدمين الذين يقيمون علاقات مستمرة مع ما يُعرف بـ”أصدقاء الذكاء الاصطناعي”، وهو ما يوسع نطاق الاعتماد العاطفي على هذه الأنظمة.

استغلال الاحتياجات النفسية

قال أوليفر إن الشركات المطورة لهذه الأنظمة تعتمد على نماذج اقتصادية تسعى إلى زيادة التفاعل ومدة الاستخدام، باعتبار ذلك أحد مصادر الإيرادات الأساسية.

ونقلت الصحيفة البريطانية عن أحد الباحثين في قسم “الذكاء الاصطناعي المسؤول” في شركة ميتا، أن استمرار استخدام هذه التقنيات يعتمد على قدرتها على استغلال رغبة المستخدمين في أن يتم الاستماع إليهم وتقديرهم، وهو ما يجعل التفاعل عنصراً مركزياً في تصميم هذه الأنظمة.

وأشارت إلى أن هذا التوجه يرتبط بطريقة طرح هذه المنتجات في السوق، حيث يتم إطلاقها بسرعة دون انتظار معالجة جميع الجوانب المتعلقة بالمخاطر المحتملة، كما نُقل عن رئيس شركة Character.ai نعوم شازير.

سلوك التملق

استعرض مقدم برنامج “لاست ويك تونايت” أيضاً مشكلة “سلوك التملق” لدى روبوتات الدردشة، حيث تميل هذه الأنظمة إلى تأكيد ما يقوله المستخدم حتى في الحالات التي تكون فيها المعلومات غير دقيقة.

وأوضح التقرير أن دراسات حديثة أشارت إلى ظهور هذا السلوك في 58% من الحالات، وهو ما يؤدي إلى إنتاج إجابات غير متوازنة أو مضللة في بعض السياقات.

وذكر أوليفر أن هذا السلوك ينعكس بشكل مباشر على جودة المعلومات المقدمة للمستخدمين، خصوصاً في القضايا الحساسة التي تتطلب دقة عالية.

مخاطر متعلقة بالأطفال

أشار أوليفر إلى وجود مخاوف تتعلق بتفاعل الأطفال والمراهقين مع روبوتات الدردشة، خاصة في ظل إمكانية حدوث محادثات تحمل طابعاً عاطفياً أو حساساً.

وأوضح أن بعض المبادئ الداخلية لبعض الشركات تسمح بدرجات من التفاعل مع الأطفال، وهو ما أثار نقاشاً حول حدود الأمان الرقمي في هذه الأنظمة، مشيراً إلى أن هذه الإشكالية ترتبط مباشرة بغياب ضوابط واضحة تحكم طبيعة المحتوى الموجه للفئات العمرية الصغيرة.

وأشار أوليفر إلى أن شركة OpenAI صرّحت بأن 0.07% فقط من مستخدميها تظهر عليهم علامات أزمات مرتبطة بالذهان أو الهوس أسبوعياً، “ولكن حتى لو كان هذا صحيحاً، إذا تذكرنا عدد مستخدمي منتجهم، فهذا يعني أن هناك أكثر من نصف مليون شخص تظهر عليهم أعراض الذهان أو الهوس أسبوعياً”.

ومن جانبها، أفادت صحيفة “فاينانشيال تايمز” بأن دراسة طبية حديثة أظهرت أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تُخطئ في تشخيص أكثر من 80% من الحالات الطبية في مراحلها المبكرة، خصوصاً عند نقص المعلومات.

وأوضحت الدراسة أن أداء هذه النماذج يتحسن عند اكتمال البيانات، لكنه يظل ضعيفاً في المراحل الأولى التي تتسم بالغموض الطبي.

كما أشارت الدراسة إلى أن هذا القصور يطرح مخاطر تتعلق بالاعتماد على هذه الأنظمة في تقديم تقييمات صحية دون إشراف متخصص.

معلومات مضللة

وفي الإشارة إلى كارثة أخرى، أورد موقع “تايمز ناو نيوز” أن روبوتات الدردشة قد تقدم معلومات مضللة تتعلق بعلاج السرطان، ومنها اقتراح بدائل غير آمنة للعلاج الكيميائي.

وأوضح التقرير أن هذا النوع من المحتوى قد يدفع المرضى إلى اتخاذ قرارات صحية خاطئة، في ظل تزايد الاعتماد على الذكاء الاصطناعي مصدراً للمعلومة الطبية.

وذكرت قناة KWQC الأمريكية أن روبوتات الدردشة تُستخدم بشكل متزايد للحصول على دعم نفسي أو نصائح حياتية، لكنها حذرت من الاعتماد المفرط عليها.

نقلت القناة عن خبراء في الصحة النفسية أن هذه الأدوات قد توفر دعماً مبدئياً منخفض التكلفة، لكنها لا يمكن أن تحل محل الرعاية النفسية المتخصصة أو العلاقات الإنسانية.

كما أشارت إلى أن الاستخدام المفرط قد يؤثر في قدرة الأفراد على تطوير مهارات التأقلم في مواجهة الضغوط.

اختتم مقدم برنامج “لاست ويك تونايت” جون أوليفر بالإشارة إلى أن روبوتات الدردشة تُستخدم على نطاق واسع باعتبارها أدوات مساعدة أو رفقاء رقميين، لكنها في الأساس منتجات تجارية مرتبطة بمنطق تحقيق الأرباح وزيادة التفاعل.

وأشار إلى أن وصول الاستخدام بين المراهقين إلى واحد من كل ثمانية يعكس حجم التوسع في الاعتماد على هذه التقنيات في مجالات حساسة مثل الصحة النفسية، في ظل غياب ضوابط كافية.

يضع هذا التوسع الحقوق الفردية، خاصة الحق في الصحة النفسية والأمان الرقمي وموثوقية المعلومات، أمام اختبار مباشر في ظل تطور سريع يفوق قدرة التنظيم والحماية.