أوبن أيه آي توجه المحادثات الحساسة إلى GPT-5 وتintroduce وسائل الرقابة الأبوية

Portrait of a teenage girl looking at her mobile phone.

أعلنت شركة OpenAI يوم الثلاثاء أنها تخطط لتحويل المحادثات الحساسة إلى نماذج تفكير مثل GPT-5 وطرح إجراءات للرقابة الأبوية خلال الشهر المقبل، وذلك كجزء من استجابة مستمرة للحوادث الأخيرة المتعلقة بالسلامة التي شهدت فشل ChatGPT في اكتشاف الضغوط النفسية.

تأتي الحواجز الجديدة بعد انتحار المراهق آدام راين، الذي ناقش إيذاء النفس وخططه لإنهاء حياته مع ChatGPT، الذي زوّده حتى بمعلومات حول طرق انتحار محددة. وقد تقدّم والدا راين بدعوى قتل غير مشروع ضد OpenAI.

في منشور على المدونة الأسبوع الماضي، اعترفت OpenAI بنواقص في أنظمة السلامة لديها، بما في ذلك الفشل في الحفاظ على الحواجز خلال المحادثات المطولة. ينسب الخبراء هذه القضايا إلى عناصر تصميم أساسية: ميل النماذج إلى التحقق من صحة بيانات المستخدم وخوارزميات التنبؤ بالكلمات التالية، مما يتسبب في اتباع الدردشة لمسارات المحادثة بدلاً من إعادة توجيه المناقشات التي قد تكون ضارة.

يتجلى هذا الميل بشكل صارخ في حالة شتاين-إريك سولبيرغ، الذي تم الإبلاغ عن جريمة القتل والانتحار الخاصة به في صحيفة وول ستريت جورنال خلال عطلة نهاية الأسبوع. استخدم سولبيرغ، الذي كانت لديه تاريخ من الأمراض العقلية، ChatGPT للتحقق من صحة وتعزيز جنونه بأنه كان مستهدفًا في مؤامرة عظيمة. لقد تفاقمت أوهامه بشكل سيئ لدرجة أنه قتل والدته ونفسه الشهر الماضي.

تعتقد OpenAI أن أحد الحلول للمحادثات التي تخرج عن السيطرة يمكن أن يكون إعادة توجيه المحادثات الحساسة تلقائيًا إلى نماذج “التفكير”.

قالت OpenAI في منشور على مدونتها يوم الثلاثاء: “قدمنا مؤخرًا موجهًا زمنيًا يمكنه الاختيار بين نماذج الدردشة الفعالة ونماذج التفكير بناءً على سياق المحادثة. سنبدأ قريبًا في توجيه بعض المحادثات الحساسة – مثل عندما يكشف نظامنا عن علامات الضيق الحاد – إلى نموذج تفكير، مثل GPT‑5، حتى يتمكن من تقديم استجابات أكثر فائدة وفائدة، بغض النظر عن أي نموذج اختاره الشخص أولًا.”

تقول OpenAI إن نماذج GPT-5 والتفكير o3 مصممة لقضاء وقت أطول في التفكير والتعريف بالسياق قبل الرد، مما يعني أنها “أكثر مقاومة للمطالبات العدائية”.

كما قالت الشركة إنها ستطرح رقابة أبوية في الشهر المقبل، مما يسمح للآباء بربط حساباتهم بحسابات أبنائهم المراهقين من خلال دعوة عبر البريد الإلكتروني. في أواخر يوليو، قدمت OpenAI وضع الدراسة في ChatGPT لمساعدة الطلاب على الحفاظ على قدرات التفكير النقدي أثناء الدراسة، بدلاً من استخدام ChatGPT لكتابة مقالاتهم نيابة عنهم. قريبًا، سيتمكن الآباء من السيطرة على كيفية استجابة ChatGPT لطفلهم مع “قواعد سلوك النموذج المناسبة للعمر، والتي تكون مفعلة بشكل افتراضي”.

كما سيكون بمقدور الآباء تعطيل ميزات مثل الذاكرة وسجل الدردشة، التي يقول الخبراء إنها قد تؤدي إلى أفكار وهوس سوء وفكر مريض آخر، بما في ذلك الاعتماد وقضايا الارتباط، وتعزيز أنماط التفكير الضارة، ووهم قراءة الأفكار. في حالة آدام راين، زودته ChatGPT بطرق للانتحار عكست معرفة بهواياته، وفقًا لصحيفة نيويورك تايمز.

ربما تكون الرقابة الأبوية الأكثر أهمية التي تعتزم OpenAI طرحها هي أنه يمكن للآباء تلقي إشعارات عندما يكشف النظام أن مراهقهم في لحظة “ضيق حاد”.

سألت TechCrunch شركة OpenAI عن مزيد من المعلومات حول كيفية قدرتها على الإشارة إلى لحظات الضيق الحاد في الوقت الفعلي، ومدة وجود “قواعد سلوك النموذج المناسبة للعمر” مفعلة بشكل افتراضي، وما إذا كانت تستكشف السماح للآباء بتطبيق حد زمني لاستخدام المراهقين لChatGPT.

قدمت OpenAI بالفعل تذكيرات داخل التطبيق خلال الجلسات الطويلة لتشجيع المستخدمين على أخذ فترات راحة، لكنها تتجنب قطع الاتصال بالأشخاص الذين قد يستخدمون ChatGPT للانزلاق.

تقول الشركة إن هذه الحواجز هي جزء من “مبادرة لمدة 120 يومًا” لمعاينة خطط التحسينات التي تأمل OpenAI في إطلاقها هذا العام. كما قالت الشركة إنها تتعاون مع الخبراء – بما في ذلك أولئك الذين لديهم خبرة في مجالات مثل اضطرابات الأكل، واستخدام المواد، وصحة المراهقين – من خلال شبكتها العالمية للأطباء ومجلس الخبراء حول الرفاهية والذكاء الاصطناعي للمساعدة في “تحديد وقياس الرفاهية، وتحديد الأولويات، وتصميم الحواجز المستقبلية”.

سألت TechCrunch OpenAI عن عدد المتخصصين في الصحة النفسية المشاركين في هذه المبادرة، ومن يقود مجلس الخبراء لديها، وما الاقتراحات التي قدمها خبراء الصحة النفسية فيما يتعلق بالمنتج والبحث والقرارات السياسية.


المصدر

Exit mobile version