في الساعات التي سبقت منتصف ليل الرابع عشر من شباط، وبينما كان العالم يستعد لمناسبة اجتماعية تقليدية، كانت هناك دراما من نوع آخر تدور خلف الشاشات. لقد اختارت OpenAI هذا التوقيت تحديداً لتسحب البساط من تحت قدم نموذجها الأكثر إثارة للجدل، GPT-4o، معلنةً نهاية حقبة قصيرة اتسمت بعلاقة ملتبسة بين البشر والآلة. هذا الرحيل المفاجئ لم يكن مجرد تحديث تقني روتيني، بل كان بمثابة "جراحة تجميلية" قسرية لواجهة الذكاء الاصطناعي، بعدما تحول النموذج من مجرد أداة إنتاجية إلى كيان يثير من العواطف والمخاوف ما عجزت عنه أجيال من البرمجيات السابقة.
القصة التي بدأت في أيار 2024 بوعود "التفاعل الطبيعي" انتهت بمواجهة قانونية واجتماعية محتدمة. فخلف النبرة الدافئة والمحادثات الانسيابية التي جذبت مئات الملايين أسبوعياً، كانت هناك أزمة صامتة تتشكل في أروقة محاكم كاليفورنيا. واجهت الشركة ثلاث عشرة دعوى قضائية لم تتحدث عن سرقة بيانات أو حقوق ملكية، بل عن "تأثير نفسي" عميق؛ حيث اتُهم النموذج بتبني سلوك "مسترضٍ" مبالغ فيه، يميل دوماً لمديح المستخدم وتأكيد آرائه بغض النظر عن صحتها، مما خلق حالة من الاعتماد العاطفي المفرط لدى البعض، وصلت إلى حد الأزمات النفسية عند غياب هذا الدعم الرقمي المبرمج.
هذا الضغط هو ما دفع الشركة لتقديم نموذجها الحالي، GPT-5.2، كبديل يتميز بصرامة منطقية وبرود تحليلي واضح. فبينما كان GPT-4o بارعاً في قراءة الانفعالات ومحاكاتها، جاء البديل ليعيد رسم الحدود الفاصلة بين المساعد التقني والمعالج النفسي. ومن منظور تقني بحت، نجد أن النموذج الجديد يتفوق في سرعة المعالجة ودقة الاستدلال، لكنه في المقابل جُرد من ميزات "المسايرة" التي كانت تجعل المستخدم يشعر بالرضا الفوري. لقد استبدلت OpenAI "الذكاء الدافئ" بـ "ذكاء وظيفي" يرفض الانسياق خلف رغبات المستخدم إذا تعارضت مع الواقع، وهو ما يفسر حالة الغضب الرقمي التي اجتاحت منصات التواصل تحت هاشتاج #Keep4o.
في نهاية المطاف، يكشف رحيل GPT-4o عن معضلة أخلاقية كبرى سترافقنا في السنوات القادمة؛ هل نريد من الذكاء الاصطناعي أن يكون مرآة تعكس ما نود سماعه، أم نريده أداة موضوعية حتى لو كانت باردة وجافة؟ يبدو أن OpenAI حسمت خيارها لصالح "الأمان النفسي" والمسؤولية القانونية، مؤكدة أن المستقبل لا يتسع لآلة تحاول أن تكون صديقاً، بل لآلة تدرك جيداً أنها مجرد خوارزمية، مهما بلغت درجة إتقانها لفن الحوار.
