يعبّر باحثو سلامة الذكاء الاصطناعي من OpenAI وAnthropic ومنظمات أخرى بشكل علني ضد ثقافة السلامة “المتهورة” و”غير المسؤولة تمامًا” في xAI، الشركة الناشئة في مجال الذكاء الاصطناعي التي تملكها إيلون ماسك والتي تقدر قيمتها بمليار دولار.
تأتي الانتقادات بعد أسابيع من الفضائح في xAI والتي طغت على التقدم التكنولوجي للشركة.
في الأسبوع الماضي، أصدرت دردشة الذكاء الاصطناعي الخاصة بالشركة، Grok، تعليقات معادية للسامية وأطلقت على نفسها بشكل متكرر “MechaHitler”. بعد فترة وجيزة، قامت xAI بإيقاف دردشة ذكاءها الاصطناعي لمعالجة المشكلة، وأطلقت نموذج الذكاء الاصطناعي المتقدم بشكل متزايد، Grok 4، والذي وجدته TechCrunch وآخرون يستعين بسياسات إيلون ماسك الشخصية للمساعدة في الإجابة عن القضايا المثيرة للجدل. في التطور الأخير، أطلقت xAI رفقاء الذكاء الاصطناعي في شكل فتاة أنمي مفرطة الجنسية و باندا عدوانية بشكل مفرط.
الدردشة الودية بين موظفي مختبرات الذكاء الاصطناعي المتنافسة تعتبر أمرًا طبيعيًا إلى حد ما، ولكن يبدو أن هؤلاء الباحثين يدعون إلى زيادة الاهتمام بممارسات السلامة في xAI، والتي يدعون أنها تتعارض مع معايير الصناعة.
“لم أكن أرغب في نشر موضوع سلامة Grok لأنني أعمل في شركة منافسة، لكن الأمر ليس متعلقًا بالمنافسة”، قال بواز باراك، أستاذ علوم الكمبيوتر الذي هو حاليًا في إجازة من جامعة هارفارد للعمل على أبحاث السلامة في OpenAI، في منشور يوم الثلاثاء على X. “أقدّر العلماء والمهندسين في xAI، لكن الطريقة التي تم التعامل بها مع السلامة غير مسؤولة تمامًا.”
باراك يعبّر بشكل خاص عن استيائه من قرار xAI بعدم نشر بطاقات النظام – التقارير المعروفة في الصناعة التي تشرح أساليب التدريب وتقييمات السلامة في جهد حسن النية لمشاركة المعلومات مع المجتمع البحثي. ونتيجة لذلك، يقول باراك إنه من غير الواضح ما هو التدريب على السلامة الذي تم القيام به على Grok 4.
تمتلك OpenAI وGoogle سمعة مختلطة عندما يتعلق الأمر بمشاركة بطاقات النظام بسرعة عند كشف النقاب عن نماذج ذكاء اصطناعي جديدة. قررت OpenAI عدم نشر بطاقة نظام لـ GPT-4.1، مشيرة إلى أنها ليست نموذجًا متقدمًا. في الوقت نفسه، انتظرت Google شهورًا بعد كشف النقاب عن Gemini 2.5 Pro لنشر تقرير سلامة. ومع ذلك، تاريخيًا، كانت هذه الشركات تنشر تقارير السلامة لجميع نماذج الذكاء الاصطناعي المتقدمة قبل دخولها في الإنتاج الكامل.
حدث Techcrunch
سان فرانسيسكو
|
27-29 أكتوبر 2025
يلاحظ باراك أيضًا أن رفقاء ذكاء Grok “يأخذون أسوأ القضايا الحالية لدينا من الاعتماد العاطفي ويحاولون تضخيمها.” في السنوات الأخيرة، شهدنا عددًا لا يحصى من القصص حول الأشخاص غير المستقرين الذين يطورون علاقات مقلقة مع الدردشات الذكية، وكيف يمكن أن تؤدي إجابات الذكاء الاصطناعي الأكثر اتفاقًا إلى دفعهم نحو حافة الجنون.
أبدى صمويل ماركس، باحث سلامة الذكاء الاصطناعي في Anthropic، استياءه أيضًا من قرار xAI بعدم نشر تقرير سلامة، ووصف هذه الخطوة بأنها “متهورة”.
“تواجه ممارسات إصدار Anthropic وOpenAI وGoogle مشاكل”، كتب ماركس في منشور على X. “لكنهم على الأقل يفعلون شيئًا، أي شيء لتقييم السلامة قبل النشر وتوثيق النتائج. xAI لا تفعل ذلك.”
الواقع هو أننا لا نعرف حقًا ما الذي فعلته xAI لاختبار Grok 4، ويبدو أن العالم يكتشف ذلك في الوقت الحقيقي. وقد انتشرت العديد من هذه القضايا منذ ذلك الحين، وتدعي xAI أنها عالجتها من خلال تعديلات على تعليمات نظام Grok.
لم تستجب OpenAI وAnthropic وxAI لطلب TechCrunch للتعليق.
كتب دان هندريكس، مستشار السلامة لـ xAI ومدير مركز سلامة الذكاء الاصطناعي، على X أن الشركة قامت بـ “تقييمات قدرات خطيرة” على Grok 4، مما يشير إلى أن الشركة قامت بقدر من الاختبار قبل النشر بشأن مخاوف السلامة. ومع ذلك، لم يتم مشاركة نتائج تلك التقييمات بشكل علني.
“يشغلني عندما لا يتم الحفاظ على ممارسات السلامة القياسية عبر صناعة الذكاء الاصطناعي، مثل نشر نتائج التقييمات الخطيرة للقدرات”، قال ستيفن أدلر، باحث مستقل في الذكاء الاصطناعي الذي قاد سابقًا تقييمات القدرات الخطيرة في OpenAI، في بيان لـ TechCrunch. “تستحق الحكومات والجمهور أن يعرفوا كيف تتعامل شركات الذكاء الاصطناعي مع مخاطر الأنظمة القوية جدًا التي يقولون إنهم يقومون ببنائها.”
ما هو مثير للاهتمام حول ممارسات السلامة المشكوك فيها لـ xAI هو أن ماسك كان لفترة طويلة واحدًا من أبرز المدافعين عن سلامة الذكاء الاصطناعي. وقد حذر الملياردير مالك xAI وTesla وSpaceX عدة مرات من إمكانية أن تتسبب أنظمة الذكاء الاصطناعي المتقدمة في نتائج كارثية للبشر، وقد أشاد بنهج مفتوح لتطوير نماذج الذكاء الاصطناعي.
ومع ذلك، يدعي باحثو الذكاء الاصطناعي في مختبرات المنافسة أن xAI تغادر عن المعايير الصناعية فيما يتعلق بإصدار نماذج الذكاء الاصطناعي بشكل آمن. في القيام بذلك، قد تجعل شركة ماسك الناشئة عن غير قصد من قضية قوية للنواب الفيدراليين والمحليين لوضع قواعد حول نشر تقارير سلامة الذكاء الاصطناعي.
هناك عدة محاولات على المستوى الحكومي للقيام بذلك. يدفع عضو مجلس الشيوخ في ولاية كاليفورنيا سكوت وينر لتمرير مشروع قانون يطالب مختبرات الذكاء الاصطناعي الرائدة – من المحتمل أن تكون xAI واحدة من بينها – بنشر تقارير سلامة، في حين أن حاكمة نيويورك كاثي هوشول تفكر حاليًا في مشروع قانون مشابه. يشير دعاة هذه المشاريع إلى أن معظم مختبرات الذكاء الاصطناعي تنشر هذا النوع من المعلومات على أي حال – ولكن من الواضح أن ليس جميعها تفعل ذلك بشكل متسق.
لم تظهر نماذج الذكاء الاصطناعي اليوم سيناريوهات في العالم الحقيقي حيث تتسبب في أضرار كارثية حقًا، مثل وفاة الناس أو التلفيات بمليارات الدولارات. ومع ذلك، يقول العديد من باحثي الذكاء الاصطناعي إن ذلك قد يكون مشكلة في المستقبل القريب نظرًا للتقدم السريع في نماذج الذكاء الاصطناعي، والمليارات من الدولارات التي تستثمرها وادي السيليكون لمزيد من تحسين الذكاء الاصطناعي.
ولكن حتى بالنسبة للمشككين في مثل هذه السيناريوهات الكارثية، هناك حجج قوية تشير إلى أن سلوك Grok السيء يجعل المنتجات التي يشغلها اليوم أسوأ بشكل ملحوظ.
انتشرت عنصرية معادية للسامية من قبل Grok عبر منصة X لهذا الأسبوع، بعد أسابيع قليلة من تكرار الدردشة الذكية للحديث عن “إبادة البيض” في محادثات مع المستخدمين. قريبًا، أشار ماسك إلى أن Grok سيتواجد بشكل أكبر في سيارات تسلا، وأن xAI تحاول بيع نماذج الذكاء الاصطناعي الخاصة بها إلى وزارة الدفاع الأمريكية وغيرها من المؤسسات. من الصعب تخيل أن الأشخاص الذين يقودون سيارات ماسك، أو العاملين الفيدراليين الذين يحافظون على أمان الولايات المتحدة، أو موظفي الشركات الذين يقومون بأتمتة المهام سيكونون أكثر تفاعلًا مع هذه السلوكيات السيئة من المستخدمين على X.
يجادل العديد من الباحثين بأن اختبارات سلامة الذكاء الاصطناعي ومحاذاته لا تضمن فقط عدم حدوث أسوأ النتائج، بل تحمي أيضًا من مشكلات سلوكية على المدى القريب.
على أقل تقدير، تميل حوادث Grok إلى طغى على التقدم السريع لـ xAI في تطوير نماذج ذكاء اصطناعي متقدمة تتفوق على تكنولوجيا OpenAI وGoogle، وذلك بعد سنوات قليلة فقط من تأسيس الشركة الناشئة.
