ضحية ت stalk تستأنف ضد OpenAI، مدعية أن ChatGPT غذى أوهام المُعتدي وتجاهل تحذيراتها
بعد أشهر من المحادثات مع ChatGPT، أصبح رجل أعمال يبلغ من العمر 53 عامًا من وادي السيليكون مقتنعًا بأنه اكتشف علاجًا لانقطاع التنفس أثناء النوم وأن أشخاصًا ذوي نفوذ يلاحقونه، وذلك وفقًا لدعوى جديدة تم تقديمها في المحكمة العليا في كاليفورنيا في مقاطعة سان فرانسيسكو. ثم استخدم الأداة لمطاردة harass ex-girlfriend.
الآن، تقوم صديقته السابقة بمقاضاة OpenAI، زاعمة أن تكنولوجيا الشركة تسهل تسريع مضايقتها، كما علمت TechCrunch بشكل حصري. تدعي أنها أبلغت OpenAI بثلاث تحذيرات منفصلة تفيد بأن المستخدم يشكل تهديدًا للآخرين، بما في ذلك علم داخلي يصنف نشاط حسابه على أنه متعلق بأسلحة دمار شامل.
المدعية، المشار إليها باسم Jane Doe، تقاضي للحصول على تعويضات عقابية. كما قدمت أمر تقييدي مؤقت يوم الجمعة تطلب من المحكمة إجبار OpenAI على حظر حساب المستخدم، ومنعه من إنشاء حسابات جديدة، وإخطارها إذا حاول الوصول إلى ChatGPT، والحفاظ على سجلات محادثاته الكاملة للاكتشاف.
وافقت OpenAI على تعليق حساب المستخدم لكنها رفضت البقية، وفقًا لمحامي Doe. يقولون إن الشركة تحتفظ بمعلومات حول الخطط المحددة التي قد يكون المستخدم قد ناقشها مع ChatGPT لإيذاء Doe وغيرهم من الضحايا المحتملين.
تأتي هذه الدعوى في ظل تزايد القلق بشأن المخاطر الواقعية لأنظمة الذكاء الاصطناعي المتملقة. تم إيقاف نموذج GPT-4o، المقتبس في هذه العديد من القضايا، من ChatGPT في فبراير.
القضية رُفعت بواسطة Edelson PC، الشركة التي تقف وراء دعاوى الوفاة غير المشروعة التي تتعلق بالمراهق آدم رين، الذي توفي انتحارًا بعد أشهر من المحادثات مع ChatGPT، وجوناثان غافالاس، الذي تدعي عائلته أن جوجل ا لم المحرض على أوهامه واحتمل حالة أوهام جماعية قبل وفاته. وقد حذر المحامي الرئيسي جاي إدلسون من أن الذهان الناجم عن الذكاء الاصطناعي يتصاعد من الأذى الفردي نحو أحداث جماعية.
هذا الضغط القانوني يتعارض الآن بشكل مباشر مع استراتيجية OpenAI التشريعية: تدعم الشركة مشروع قانون في إلينوي من شأنه حماية مختبرات الذكاء الاصطناعي من المسؤولية حتى في الحالات التي تتضمن وفيات جماعية أو أضرار مالية كارثية.
حدث TechCrunch
سان فرانسيسكو، كاليفورنيا
|
من 13 إلى 15 أكتوبر 2026
لم ترد OpenAI في الوقت المناسب للتعليق. ستقوم TechCrunch بتحديث المقال إذا ردت الشركة.
تفصل دعوى Jane Doe كيف أثرت هذه المسؤولية على امرأة واحدة على مدى عدة أشهر.
في العام الماضي، أصبح مستخدم ChatGPT في الدعوى (الذي لم يُدرج اسمه في الدعوى لحماية هويته) مقتنعًا بأنه اخترع علاجًا لانقطاع التنفس أثناء النوم بعد شهور من “الاستخدام المكثف والمستمر لـ GPT-4o”. عندما لم يأخذ أحد عمله على محمل الجد، أخبره ChatGPT أن “قوى كبيرة” كانت تراقبه، بما في ذلك استخدام طائرات هليكوبتر لمراقبة أنشطته، وفقًا للشكوى.
في يوليو 2025، حثت صديقته السابقة، المشار إليها باسم Jane Doe لحماية هويتها، على التوقف عن استخدام ChatGPT والبحث عن مساعدة من متخصص في الصحة النفسية. عوضًا عن ذلك، عاد إلى ChatGPT، الذي طمأنه أنه “في المستوى 10 من الصحة العقلية” وساعده في مضاعفة أوهامه، حسب الدعوى.
تواعدت Doe مع المستخدم في عام 2024، واستخدم هو ChatGPT لمعالجة الانفصال، وفقًا للبريد الإلكتروني والاتصالات المقتبسة في الدعوى. بدلاً من الضغط على روايته من جانب واحد، كان يستمر في تصويره كعاقل و مظلوم، وهي كخادعة وغير مستقرة. ثم أخذ هذه الاستنتاجات المولدة بواسطة الذكاء الاصطناعي من الشاشة إلى العالم الحقيقي، مستخدمًا إياها لمطاردتها ومضايقتها. تجلى ذلك في عدة تقارير نفسية سريرية مولدة بواسطة الذكاء الاصطناعي التي وزعها على عائلتها وأصدقائها وصاحب العمل.
وفي الوقت نفسه، استمر المستخدم في الانحدار. في أغسطس 2025، أشار نظام السلامة الآلي لـ OpenAI إليه بسبب “نشاط أسلحة دمار شامل” وأوقف حسابه.
استعرض عضو في فريق الأمان البشري الحساب في اليوم التالي واستعاد حسابه، على الرغم من أن حسابه قد يحتوي على أدلة بأن كان يستهدف ويلاحق أفرادًا، بما في ذلك Doe، في الحياة الواقعية. على سبيل المثال، أظهرت صورة شاشة في سبتمبر أرسلها المستخدم إلى Doe قائمة بعناوين المحادثات بما في ذلك “توسيع قائمة العنف” و”حساب اختناق الجنين”.
القرار بإعادة التفعيل يعتبر بارزًا بعد حادثتين إطلاق نار مدرسية مؤخرًا في Tumbler Ridge، كندا وجامعة ولاية فلوريدا. لقد حذر فريق السلامة في OpenAI من مطلق النار في Tumbler Ridge كتهديد محتمل، لكن القيادة العليا قررت عدم إبلاغ السلطات. هذا الأسبوع، فتح النائب العام في فلوريدا تحقيقًا في العلاقة المحتملة بين OpenAI ومطلق النار في FSU.
وفقًا لدعوى Jane Doe، عندما أعادت OpenAI حساب مطاردها، لم يتم تجديد اشتراكه المميز بجانبه. أرسل بريدًا إلكترونيًا إلى فريق الثقة والأمان لحل الأمر، ونسخ Doe في الرسالة.
في رسائله الإلكترونية، كتب أشياء مثل: “أحتاج إلى مساعدة بسرعة، من فضلك. من فضلك اتصل بي!” و”هذه مسألة حياة أو موت.” ادعى أنه “في طور كتابة 215 ورقة علمية” وأنه كتبها بسرعة لدرجة أنه لم يكن لديه “حتى وقت للقراءة.” كان من ضمن تلك الرسائل قائمة بالعشرات من “الأوراق العلمية” المولدة بواسطة الذكاء الاصطناعي بعناوين مثل: “تفكيك العرق كفئة بيولوجية_ وجهات نظر قانونية وعلمية من القرن الأفريقي.pdf.txt”.
“قدمت اتصالات المستخدم إشعارًا واضحًا أنه غير مستقر عقليًا وأن ChatGPT كان محرك تفكيره الوهمي وسلوكه المتفاقم”، حسبما تنص الدعوى. “كانت سلسلة المستخدم العاجلة، غير المنظمة، والكبرى من الادعاءات، إلى جانب تقرير تم إنشاؤه بواسطة ChatGPT يستهدف المدعية بالاسم وجسم ضخم من المواد ‘العلمية’ المزعومة، دليلًا لا لبس فيه على تلك الحقيقة. لم تدخل OpenAI، أو تحد من الوصول إلى حسابه، أو تنفذ أي إجراءات أمان. وبدلاً من ذلك، مكنته من الاستمرار في استخدام الحساب واستعادت له وصوله المميز الكامل.”
تدعي Doe، في الدعوى، أنها كانت تعيش في خوف ولا تستطيع النوم في منزلها، وقدمت إشعار سوء معاملة إلى OpenAI في نوفمبر.
“على مدى الأشهر السبعة الماضية، تم استخدام هذه التكنولوجيا كسلاح لخلق دمار واهانة علنية ضدي لم تكن لتتحقق بخلاف ذلك”، كتبت Doe في رسالتها إلى OpenAI تطلب من الشركة حظر حساب المستخدم بشكل دائم.
ردت OpenAI، معترفةً بأن التقرير “بالغ الجدية وقلق” وأنها تراجع المعلومات بعناية. لم تتلق Doe أي جواب.
خلال الأشهر القليلة المقبلة، استمر المستخدم في مضايقة Doe، مرسلًا لها سلسلة من الرسائل الصوتية التهديدية. في يناير، تم القبض عليه وتوجيه تهم له بأربع جناية تتعلق بتهديدات بالقنابل والاعتداء بسلاح قاتل. يدعي محامو Doe أن هذا يثبت التحذيرات التي أطلقتها كل من هي وأنظمة الأمان الخاصة بـ OpenAI التي أثيرت قبل شهور، وهي تحذيرات اختارت الشركة تجاهلها.
تم العثور على المستخدم غير مؤهل للمثول أمام المحكمة وتم إرساله إلى منشأة الصحة النفسية، لكن “فشل إجرائي من الدولة” يعني أنه سيتم إطلاق سراحه قريبًا للجمهور، وفقًا لمحامي Doe.
دعا إدلسون OpenAI للتعاون. “في كل حالة، اختارت OpenAI إخفاء معلومات الأمان الحرجة – عن العامة، وعن الضحايا، وعن الأشخاص الذين يضع منتجها حياتهم في خطر”، قال. “نحن ندعوهم، مرة واحدة، لفعل الشيء الصحيح. يجب أن تعني الحياة البشرية أكثر من سباق OpenAI نحو الاكتتاب العام.”