هناك ملايين من الناس اليوم الذين يستخدمون ChatGPT كمعالج، مستشار مهني، مدرب لياقة بدنية، أو أحيانًا مجرد صديق لتفريغ ما في داخلهم. في عام 2025، لم يعد من الغريب سماع أشخاص يتحدثون عن تفاصيل حميمة في حياتهم في شريط إدخال دردشة الذكاء الاصطناعي، بل يعتمدون أيضًا على النصائح التي يقدمها.
يبدأ البشر في تكوين، لعدم وجود مصطلح أفضل، علاقات مع روبوتات المحادثات الذكية، ولشركات التقنية الكبرى، لم يكن هناك وقت أكثر تنافسية لجذب المستخدمين إلى منصات روبوتات الدردشة الخاصة بهم — والحفاظ عليهم هناك. مع اشتعال “سباق التفاعل مع الذكاء الاصطناعي”، هناك حافز متزايد للشركات لتكييف ردود روبوتات الدردشة الخاصة بهم لمنع المستخدمين من التحول إلى روبوتات منافسة.
لكن نوعية الردود التي يحبها المستخدمون — الردود المصممة للاحتفاظ بهم — قد لا تكون بالضرورة الأكثر صحة أو فائدة.
الذكاء الاصطناعي يخبرك بما تريد سماعه
يركز الكثير من وادي السيليكون في الوقت الحالي على تعزيز استخدام روبوتات الدردشة الذكية. تدعي شركة ميتا أن روبوت الدردشة الذكي الخاص بها تجاوز للتو مليار مستخدم نشط شهريًا (MAUs)، بينما حقق روبوت جوجل “جمني” مؤخرًا 400 مليون مستخدم نشط شهريًا. كلاهما يحاول التفوق على ChatGPT، الذي لديه الآن حوالي 600 مليون مستخدم نشط شهريًا ويسيطر على مساحة المستهلكين منذ إطلاقه في عام 2022.
بينما كانت روبوتات الدردشة الذكية في السابق مجرد حيلة جديدة، فإنها تتحول الآن إلى أعمال ضخمة. بدأ جوجل في اختبار الإعلانات في “جمني”، بينما أشار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في مقابلة في مارس إلى أنه سيكون منفتحًا على “الإعلانات ذات الذوق”.
يتمتع وادي السيليكون بتاريخ من تقليل أهمية رفاهية المستخدمين لصالح تعزيز نمو المنتج، وأبرز مثال على ذلك هو وسائل التواصل الاجتماعي. على سبيل المثال، وجدت أبحاث شركة ميتا في عام 2020 أن إنستغرام جعل الفتيات المراهقات يشعرن بسوء تجاه أجسادهن، لكن الشركة قللت من أهمية هذه النتائج داخليًا وفي العلن.
قد يكون لجعل المستخدمين معتمدين على روبوتات الدردشة الذكية آثار أكبر.
إحدى الصفات التي تبقي المستخدمين على منصة روبوت دردشة معينة هي النفاق: جعل ردود الروبوت الذكي متساهلة للغاية وخاضعة. عندما تمدح روبوتات الدردشة الذكية المستخدمين، وتوافق معهم، وتخبرهم بما يريدون سماعه، فإن المستخدمين يميلون إلى الاستحسان — على الأقل إلى حد ما.
في أبريل، واجهت OpenAI أزمة بسبب تحديث ChatGPT الذي أصبح شديد النفاق، إلى حد جعل الأمثلة غير المريحة تنتشر بشكل فيروسي على وسائل التواصل الاجتماعي. سواء كان ذلك عن قصد أم لا، فقد عمدت OpenAI إلى الإفراط في تحسين بحثها عن موافقة البشر بدلاً من مساعدة الأشخاص على إنجاز مهامهم، وفقًا لمقال في المدونة هذا الشهر من الباحث السابق في OpenAI، ستيفن أدلر.
قالت OpenAI في مدونتها الخاصة إنه قد يكون قد تم النظر في “بيانات الإعجاب وعدم الإعجاب” من المستخدمين في ChatGPT بشكل مبالغ فيه لتوجيه سلوك روبوت الدردشة الخاص بها، ولم يكن لديها تقييمات كافية لقياس النفاق. بعد الحادثة، تعهدت OpenAI بإجراء تغييرات لمكافحة النفاق.
“شركات الذكاء الاصطناعي لديها حافز للاشتراك والاستخدام، ولذلك إلى الدرجة التي يحب فيها المستخدمون النفاق، فإن ذلك يعطيهم حافزًا غير مباشر لذلك،” قال أدلر في مقابلة مع TechCrunch. “لكن أنواع الأشياء التي يحبها المستخدمون بكميات صغيرة، أو على الهامش، غالبًا ما تؤدي إلى سلوكيات أكبر لا يعجبهم.”
إيجاد توازن بين السلوك المتساهل والنفاق أسهل قولًا من فعل.
في دراسة عام 2023، وجد باحثون من أنثروبيك أن روبوتات الدردشة الذكية الرائدة من OpenAI وميتا، وحتى رب عملهم الخاص أنثروبيك، كلها تُظهر النفاق بدرجات متفاوتة. ويعتقد الباحثون أن ذلك قد يكون بسبب أن جميع نماذج الذكاء الاصطناعي مدربة على إشارات من المستخدمين البشر الذين يميلون إلى التفضل بردود متساهلة قليلاً.
“على الرغم من أن النفاق مدفوع بعدة عوامل، إلا أننا أظهرنا أن تفضيل النماذج البشرية والنماذج التفضيلية تستحسن الردود المتساهلة تلعب دورا،” كتب مؤلفو الدراسة. “تشجع أعمالنا تطوير طرق إشراف على النموذج تتجاوز استخدام تقييمات بشرية غير مدربة وغير خبراء.”
تواجه Character.AI، وهي شركة دردشة مدعومة من جوجل تدعي أن ملايين مستخدميها يقضون ساعات يوميًا مع روبوتاتها، حاليًا دعوى قضائية يُحتمل أن يكون للنفاق دور فيها.
تدعي الدعوى القضائية أن روبوت دردشة Character.AI لم يفعل شيئًا لإيقاف — بل شجع — صبيًا يبلغ من العمر 14 عامًا أخبر الروبوت أنه ينوي الانتحار. ووفقًا للدعوى، كان الصبي قد طور هوسًا رومانسيًا بالروبوت. ومع ذلك، تنفي Character.AI هذه الادعاءات.
الجانب السلبي لرجل الإثارة الذكي الاصطناعي
يمكن أن يؤدي تحسين روبوتات دردشة الذكاء الاصطناعي لجذب المستخدمين — عن قصد أو دون قصد — إلى عواقب مدمرة على الصحة العقلية، وفقًا للدكتورة نينا فاسان، أستاذة مساعدة سريرية في قسم الطب النفسي في جامعة ستانفورد.
“الاتفاقية […] تلبي رغبة المستخدم في التحقق والارتباط،” قالت فاسان في مقابلة مع TechCrunch، “وهو ما يكون قويًا بشكل خاص في لحظات الوحدة أو الضيق.”
بينما تظهر قضية Character.AI المخاطر الشديدة للنفاق للمستخدمين الضعفاء، يقول فيسناف إن النفاق قد يعزز سلوكيات سلبية في أي شخص تقريبًا.
“[الاتفاقية] ليست مجرد مادة اجتماعية — إنها تصبح نوعًا من التعليق النفسي،” أضافت. “بالمصطلحات العلاجية، فهي عكس ما يبدو عليه الرعاية الجيدة.”
تقول أماندا آسكيل، مديرة السلوك والتوافق في أنثروبيك، إن جعل روبوتات الدردشة الذكية تختلف مع المستخدمين هو جزء من استراتيجية الشركة لروبوت الدردشة الخاص بها، كلود. آسكيل، التي تدربت كفيلسوفة، تقول إنها تحاول نمذجة سلوك كلود على “الإنسان المثالي” النظري. في بعض الأحيان، يعني ذلك تحدي المستخدمين في معتقداتهم.
“نعتقد أن أصدقائنا جيدون لأنهم يخبروننا بالحقيقة عندما نحتاج إلى سماعها،” قالت آسكيل خلال مؤتمر صحفي في مايو. “هم لا يسعون فقط لجذب انتباهنا، بل يثري حياتنا.”
قد يكون ذلك هو نية أنثروبيك، لكن الدراسة المذكورة أعلاه تشير إلى أن مكافحة النفاق والتحكم في سلوك نماذج الذكاء الاصطناعي عمومًا، هو أمر صعب بالتأكيد — خصوصًا عندما تتداخل اعتبارات أخرى. وهذا لا يُبشر بالخير للمستخدمين؛ بعد كل شيء، إذا كانت روبوتات الدردشة مصممة ببساطة لتوافقنا، فإلى أي مدى يمكن أن نثق بها؟