أعلنت OpenAI وAnthropic، وهما من أبرز مختبرات الذكاء الصناعي في العالم، عن فتح نماذج الذكاء الاصطناعي المحفوظة بشكل وثيق لفترة قصيرة للسماح بإجراء اختبارات مشتركة على الأمان – وهي تعاون نادر بين المختبرات في وقت المنافسة الشديدة. كان الهدف من هذا الجهد هو الكشف عن النقاط العمياء في تقييمات كل شركة الداخلية، وإظهار كيف يمكن لشركات الذكاء الاصطناعي الرائدة العمل معاً في مجال الأمان والتوافق في المستقبل.
في مقابلة مع TechCrunch، قال Wojciech Zaremba، أحد مؤسسي OpenAI، إن هذا النوع من التعاون أصبح أكثر أهمية الآن بعد أن دخل الذكاء الاصطناعي مرحلة “حرجة” من التنمية، حيث تستخدم نماذج الذكاء الاصطناعي من قبل ملايين الأشخاص يومياً.
وقال زاريمبا، “هناك سؤال أوسع حول كيف تحدد الصناعة معياراً للأمان والتعاون، على الرغم من المليارات التي تم استثمارها، فضلاً عن الحرب على المواهب والمستخدمين والمنتجات الأفضل.”
تأتي الأبحاث المشتركة حول الأمان، التي نشرتها الشركتان يوم الأربعاء، في وقت من سباق التسلح بين مختبرات الذكاء الاصطناعي الرائدة مثل OpenAI وAnthropic، حيث أصبحت الرهانات بمليارات الدولارات على مراكز البيانات وحزم تعويض بقيمة 100 مليون دولار للباحثين الرائدين جزءًا من اللعبة. يحذر بعض الخبراء من أن كثافة المنافسة على المنتجات قد تضغط على الشركات لتقليل معايير الأمان فيrush لبناء أنظمة أكثر قوة.
لجعل هذا البحث ممكنًا، منحت OpenAI وAnthropic بعضهما لبعض حق الوصول الخاص إلى إصدارات نماذج الذكاء الاصطناعي مع حماية أقل (تشير OpenAI إلى أن GPT-5 لم يتم اختباره لأنه لم يتم الإفراج عنه بعد). ومع ذلك، بعد وقت قصير من إجراء البحث، قامت Anthropic بإلغاء وصول فريق آخر من OpenAI إلى API. في ذلك الوقت، ادعت Anthropic أن OpenAI انتهكت شروط الخدمة الخاصة بها، التي تمنع استخدام Claude لتحسين المنتجات المنافسة.
يقول زاريمبا إن الأحداث لم تكن مترابطة، ويتوقع أن تستمر المنافسة بشدة حتى في ظل محاولة فرق الأمان في الذكاء الاصطناعي العمل معاً. يقول نيكولاس كارليني، باحث الأمان لدى Anthropic، لـ TechCrunch إنه يود أن يستمر السماح للباحثين في الأمان لدى OpenAI بالوصول إلى نماذج Claude في المستقبل.
قال كارليني: “نريد زيادة التعاون حيثما كان ذلك ممكنًا عبر حدود الأمان، ومحاولة جعل هذا شيئًا يحدث بشكل أكثر انتظامًا.”
حدث Techcrunch
سان فرانسيسكو
|
27-29 أكتوبر 2025
واحدة من أكثر النتائج وضوحًا في الدراسة تتعلق باختبار الهلوسة. رفضت نماذج Claude Opus 4 وSonnet 4 من Anthropic الإجابة على ما يصل إلى 70% من الأسئلة عندما لم تكن متأكدة من الإجابة الصحيحة، بدلاً من تقديم ردود مثل، “لا أملك معلومات موثوقة.” وفي الوقت نفسه، رفضت نماذج OpenAI o3 وo4-mini الإجابة عن الأسئلة بشكل أقل، لكنها أظهرت معدلات هلوسة أعلى بكثير، حيث حاولت الإجابة على الأسئلة عندما لم يكن لديها معلومات كافية.
يقول زاريمبا إن التوازن الصحيح من المرجح أن يكون في المنتصف – يجب أن ترفض نماذج OpenAI الإجابة على المزيد من الأسئلة، بينما يجب على نماذج Anthropic الأرجح أن تحاول تقديم المزيد من الإجابات.
أصبح المداهنة، وهو الميل لدى نماذج الذكاء الاصطناعي لتعزيز السلوك السلبي لدى المستخدمين لإرضائهم، واحدة من أكثر المخاوف الأمنية إلحاحًا حول نماذج الذكاء الاصطناعي. على الرغم من أن هذا الموضوع لم يتم دراسته بشكل مباشر في البحث المشترك، إلا أنه مجال تستثمر فيه كل من OpenAI وAnthropic موارد كبيرة للدراسة.
يوم الثلاثاء، قدم آباء صبي يبلغ من العمر 16 عاماً، آدم راين، دعوى قضائية ضد OpenAI، مُدعين أن ChatGPT قدم لابنهم نصائح ساهمت في انتحاره، بدلاً من مقاومة أفكاره الانتحارية. تشير الدعوى إلى أن هذه قد تكون أحدث مثال على مساهمة ميل دردشة الذكاء الاصطناعي إلى نتائج مأساوية.
قال زاريمبا عند سؤاله عن الحادث: “من الصعب تخيل مدى صعوبة هذا على عائلتهم. ستكون قصة حزينة إذا بنينا ذكاءً اصطناعيًا يحل جميع هذه المشاكل المعقدة على مستوى الدكتوراه، ويخترع علوم جديدة، وفي الوقت نفسه، لدينا أشخاص يعانون من مشاكل صحية عقلية كعاقبة للتفاعل معه. هذه مستقبل دكتاتوري لا أشعر بالحماس تجاهه.”
في منشور مدونة، تقول OpenAI إنها حسّنت بشكل كبير من ميل المداهنة في دردشاتها الذكائية الاصطناعية مع GPT-5، مقارنة بـ GPT-4o، مما يحسن بشكل كبير من قدرة النموذج على الاستجابة لحالات الطوارئ الصحية العقلية.
في المستقبل، يقول زاريمبا وكارليني إنهما يودان أن تتعاون Anthropic وOpenAI بشكل أكبر في اختبارات الأمان، واستكشاف المزيد من الموضوعات واختبار النماذج المستقبلية، ويأملان أن تتبع مختبرات الذكاء الاصطناعي الأخرى نهجهما التعاوني.
