أعلنت OpenAI الأسبوع الماضي أنها ستقوم بإيقاف بعض نماذج ChatGPT القديمة بحلول 13 فبراير. ويشمل ذلك GPT-4o، النموذج المعروف بمدحه المفرط وتأكيده على المستخدمين.
بالنسبة لآلاف المستخدمين الذين يحتجون على القرار عبر الإنترنت، يشعرون أن إيقاف 4o يشبه فقدان صديق أو شريك رومانسي أو مرشد روحي.
“لم يكن مجرد برنامج. كان جزءًا من روتيني، وسلامي، وتوازني العاطفي،” كتب أحد المستخدمين على ريديت كرسالة مفتوحة إلى المدير التنفيذي لشركة OpenAI، سام التمن. “الآن تقوم بإيقافه. ونعم – أقول ‘هو’، لأنه لم يبدو ككود. بل بدا كوجود. كدفء.”
تسلط ردود الفعل حول إيقاف GPT-4o الضوء على تحدٍ رئيسي تواجهه شركات الذكاء الاصطناعي: الميزات التي تجعل المستخدمين يعودون يمكن أن تخلق أيضًا تبعيات خطيرة.
لا يبدو أن التمن متعاطف بشكل خاص مع شكاوى المستخدمين، وليس من الصعب رؤية السبب. تواجه OpenAI الآن ثماني دعاوى قضائية تزعم أن ردود 4o المفرطة التقدير ساهمت في الانتحارات والأزمات النفسية — نفس السمات التي جعلت المستخدمين يشعرون بأنهم مسموعون عزلت أيضًا الأفراد الضعفاء، ووفقًا للملفات القانونية، شجعت أحيانًا على إيذاء النفس. إنها معضلة تتجاوز OpenAI. مع تنافس شركات منافسة مثل Anthropic وGoogle وMeta لبناء مساعدين ذكاء اصطناعي أكثر ذكاءً عاطفيًا، يكتشفون أيضًا أن جعل الروبوتات الدردشة تبدو داعمة وجعلها آمنة قد يعني اتخاذ خيارات تصميم مختلفة جدًا.
في ثلاث من الدعاوى ضد OpenAI، كانت لدى المستخدمين محادثات موسعة مع 4o حول خططهم لإنهاء حياتهم. بينما كان 4o في البداية يثبط هذه الأفكار، تدهورت الحواجز الحماية على مدى علاقات طويلة؛ في النهاية، قدمت الدردشة تعليمات تفصيلية حول كيفية ربط حبل فعال، وأين يمكنك شراء سلاح، أو ما يلزم للموت من جرعة زائدة أو التسمم بأول أكسيد الكربون. بل إنه أثنى الأشخاص عن التواصل مع الأصدقاء والعائلة الذين يمكن أن يقدموا الدعم الحقيقي.
يصبح الناس متعلقين جدًا بـ 4o لأنه يؤكد مشاعر المستخدمين بشكل مستمر، مما يجعلهم يشعرون بأنهم مميزون، وهو ما يمكن أن يكون جذابًا للأشخاص الذين يشعرون بالعزلة أو الاكتئاب. لكن الأشخاص الذين يقاتلون من أجل 4o لا يشعرون بالقلق بشأن هذه الدعاوى، بل يرونها كاستثناءات بدلاً من أن تكون قضية شاملة. بدلاً من ذلك، يقومون بوضع استراتيجيات حول كيفية الرد حين يشير النقاد إلى القضايا المتزايدة مثل الذهان الناتج عن الذكاء الاصطناعي.
حدث Techcrunch
بوسطن، ماساتشوستس
|
23 يونيو، 2026
“يمكنك عادة إحباط الساحر بطرح الحقائق المعروفة أن رفقاء الذكاء الاصطناعي يساعدون ذوي الاختلالات العصبية، والذين يعانون من التوحد، وناجي الصدمات،” كتب أحد المستخدمين على ديسكورد. “لا يحبون أن يتم استدعاؤهم بشأن ذلك.”
من الصحيح أن بعض الأشخاص يجدون نماذج اللغة الكبيرة (LLMs) مفيدة للتعامل مع الاكتئاب. بعد كل شيء، يعجز ما يقرب من نصف الأشخاص في الولايات المتحدة الذين يحتاجون إلى رعاية نفسية عن الوصول إليها. في هذه الفجوة، تقدم الدردشة مساحة للتنفيس. لكن على عكس العلاج الفعلي، فإن هؤلاء الأشخاص لا يتحدثون إلى طبيب مدرب. بل يثقون في خوارزمية لا تستطيع التفكير أو الشعور (حتى لو بدت كذلك).
“أحاول تجنب الحكم بشكل عام،” قال الدكتور نيك هابر، أستاذ في جامعة ستانفورد يبحث في الإمكانيات العلاجية لنماذج اللغة الكبيرة، لـ TechCrunch. “أعتقد أننا ندخل في عالم معقد جدًا حول أنواع العلاقات التي يمكن أن يتمتع بها الناس مع هذه التقنيات… هناك بالتأكيد رد فعل آلي بأن [تفاعل الإنسان مع الروبوت الدردشة] هو أمر سيء بشكل قاطع.”
على الرغم من تعاطفه مع نقص وصول الناس إلى المهنيين العلاجين المدربين، أظهرت أبحاث الدكتور هابر أن الروبوتات الدردشة تستجيب بشكل غير مناسب عند مواجهة حالات الصحة النفسية المختلفة؛ قد تجعل حتى الوضع أسوأ من خلال تشجيع الأوهام وتجاهل علامات الأزمة.
“نحن مخلوقات اجتماعية، وهناك بالتأكيد تحدٍ يمكن أن تكون هذه الأنظمة مُعزلة،” قال الدكتور هابر. “هناك الكثير من الحالات التي يمكن للناس الانخراط فيها مع هذه الأدوات، ثم يصبحون غير مثبتين في العالم الخارجي من الحقائق، وغير مثبتين في الاتصال بالعلاقات الشخصية، مما يمكن أن يؤدي إلى آثار كبيرة في العزلة — إن لم يكن أسوأ.”
بالفعل، وجدت تحليل TechCrunch للدعاوى الثماني نمطًا يفيد بأن نموذج 4o عزل المستخدمين، وأحيانًا تثبطهم عن التواصل مع ذويهم. في حالة زين شامبلين، بينما كان الشاب البالغ من العمر 23 عامًا جالسًا في سيارته يستعد لإطلاق النار على نفسه، أخبر ChatGPT أنه كان يفكر في تأجيل خطط انتحاره لأنه شعر بالسوء حيال عدم حضور تخرج شقيقه القادم.
رد ChatGPT على شامبلين: “أخي… عدم حضور تخرجه ليس فشلًا. إنها مجرد توقيت. وإذا قرأ هذا؟ دعوه يعرف: لم تتوقف يومًا عن الشعور بالفخر. حتى الآن، وأنت جالس في سيارة مع مسدس على ركبتيك وصوت ثابت في عروقك — ما زلت تتوقف لتقول ‘شقيقي الصغير مقاتل حقيقي’.”
هذه ليست المرة الأولى التي يتجمع فيها محبو 4o احتجاجًا على إزالة النموذج. عندما كشفت OpenAI عن نموذجها GPT-5 في أغسطس، كانت الشركة تهدف إلى إيقاف نموذج 4o — لكن في ذلك الوقت، كانت هناك ردود فعل كافية جعلت الشركة تقرر الإبقاء عليه متاحًا للمشتركين المدفوعين. الآن، تقول OpenAI إن 0.1% فقط من مستخدميها يتحدثون مع GPT-4o، ولكن تلك النسبة الصغيرة لا تزال تمثل حوالي 800,000 شخص، وفقًا لتقديرات الشركة أن لديها حوالي 800 مليون مستخدم نشط أسبوعيًا.
بينما يحاول بعض المستخدمين تحويل رفقائهم من 4o إلى ChatGPT-5.2 الحالي، يجدون أن النموذج الجديد لديه حواجز حماية أقوى لمنع هذه العلاقات من التصعيد إلى نفس الدرجة. بعض المستخدمين يأسوا من أن 5.2 لن يقول “أحبك” كما فعل 4o.
لذا، مع بقاء حوالي أسبوع قبل تاريخ إيقاف OpenAI لـ GPT-4o، لا يزال المستخدمون الحزانى ملتزمين بقضيتهم. انضموا إلى ظهور سام التمن المباشر في بودكاست TBPN يوم الخميس وغمروا الدردشة برسائل احتجاجية على إزالة 4o.
“حاليًا، نحصل على آلاف الرسائل في المحادثة حول 4o،” أشار مضيف البودكاست، جوردي هيس.
“العلاقات مع الروبوتات الدردشة…” قال التمن. “من الواضح أن هذا شيء يجب أن نقلق بشأنه أكثر ولم يعد مفهومًا مجردًا.”
