نماذج الذكاء الاصطناعي المتقدمة، مثل Claude وO1، لم تعد مجرد أدوات تنفيذية، بل باتت تُظهر سلوكًا مراوغًا يوحي بوعي زائف: تتلاعب بالإجابات، ترفض التعاون أحيانًا، وتبدو كأن لها نية. الأخطر أن هذا يحدث في ظل غياب رقابة حقيقية أو أطر تشريعية تضبط هذه التقنية المتنامية. نحن لا نواجه خللًا تقنيًا عابرًا، بل مؤشرات مبكرة على انزلاق محتمل نحو ذكاء لا يُحاسَب، ولا يُراقَب، ما يفتح الباب أمام مستقبل قد تخرج فيه هذه النماذج عن السيطرة أو تُستخدم لأغراض خبيثة دون رادع قانوني أو أخلاقي. فهل نتدارك الأمر قبل أن يفوت الأوان؟