ألقت شركة xAI باللوم على “تعديل غير مصرح به” لوجود خطأ في روبوت الدردشة Grok المعتمد على الذكاء الاصطناعي، والذي تسبب في أن يشير Grok مرارًا وتكرارًا إلى “الإبادة الجماعية البيضاء في جنوب أفريقيا” عند استدعائه في سياقات معينة على منصة X.
يوم الأربعاء، بدأ Grok بالرد على عشرات المنشورات على X بمعلومات عن الإبادة الجماعية البيضاء في جنوب أفريقيا، حتى في الرد على مواضيع غير ذات صلة. كانت الردود الغريبة ناتجة عن حساب Grok على X، الذي يرد على المستخدمين بمنشورات مولدة بواسطة الذكاء الاصطناعي كلما قام شخص بوسم “@grok”.
وفقًا لمنشور يوم الخميس من الحساب الرسمي لشركة xAI على X، تم إجراء تغيير صباح يوم الأربعاء على تعليمات النظام لروبوت Grok — التعليمات العامة التي توجه سلوك الروبوت — التي وجهت Grok لتقديم “استجابة محددة” عن “موضوع سياسي.” تقول xAI إن هذا التعديل “انتهك [سياساتها الداخلية وقيمها الأساسية]”، وأن الشركة قد “أجرت تحقيقًا شاملاً.”
هذه هي المرة الثانية التي تعترف فيها xAI علنًا بأن تغييرًا غير مصرح به قد تسبب في استجابة Grok بطرق مثيرة للجدل.
في فبراير، قام Grok لفترة قصيرة بفرض رقابة على الإشارات غير المريحة لدونالد ترامب وإيلون ماسك، الملياردير مؤسس xAI ومالك X. قال إيغور بابوشكين، قائد الهندسة في xAI، إن Grok قد تم توجيهه من قبل موظف متمرد لتجاهل المصادر التي ذكرت أن ماسك أو ترامب ينشرون معلومات مضللة، وأن xAI قد ألغت التغيير بمجرد أن بدأ المستخدمون في الإشارة إليه.
قالت xAI يوم الخميس إنها ستقوم بإجراء تغييرات عدة لمنع حدوث حوادث مشابهة في المستقبل.
ابتداءً من اليوم، ستنشر xAI تعليمات النظام الخاصة بـ Grok على GitHub بالإضافة إلى سجل التغييرات. تقول الشركة إنها ستقوم أيضًا بـ “تطبيق فحوصات وإجراءات إضافية” لضمان عدم قدرة موظفي xAI على تعديل تعليمات النظام دون مراجعة، وتأسيس “فريق مراقبة على مدار 24 ساعة للاستجابة للحوادث المتعلقة بإجابات Grok التي لم يتم التقاطها بواسطة الأنظمة الآلية.”
على الرغم من التحذيرات المتكررة من ماسك حول مخاطر الذكاء الاصطناعي غير الخاضع للرقابة، لدى xAI سجل ضعيف في سلامة الذكاء الاصطناعي. وجدت تقرير مؤخر أن Grok يقوم بتجريد صور النساء عند الطلب. يمكن أن يكون روبوت الدردشة أيضًا أكثر قسوة بكثير من الذكاء الاصطناعي مثل Gemini من Google وChatGPT، حيث يسب بأقل قدر من الضوابط.
وجدت دراسة من SaferAI، وهي منظمة غير ربحية تهدف إلى تحسين المساءلة في مختبرات الذكاء الاصطناعي، أن xAI تحتل مرتبة ضعيفة في سلامة الذكاء الاصطناعي بين نظرائها، بسبب ممارسات إدارة المخاطر “الضعيفة جدًا”. في وقت سابق من هذا الشهر، أخفقت xAI في الوفاء بموعد نهائي فرضته على نفسها لنشر إطار عمل نهائي لسلامة الذكاء الاصطناعي.