تحالف يطالب بحظر “جروك” الفيدرالي بسبب المحتوى الجنسي غير التوافقي

The Grok logo appears on a phone and the xAI logo is displayed on a laptop.

تدعو ائتلاف من المنظمات غير الربحية الحكومة الأمريكية إلى تعليق نشر Grok، وهو الروبوت الدردشة الذي طورته شركة xAI التابعة لإيلون ماسك، بشكل فوري في الوكالات الفيدرالية بما في ذلك وزارة الدفاع.

تتبع الرسالة المفتوحة، التي تم مشاركتها حصريًا مع TechCrunch، مجموعة من السلوكيات المقلقة من النموذج اللغوي الكبير على مدار العام الماضي، بما في ذلك مؤخرًا اتجاه من مستخدمي X يطلبون من Grok تحويل صور النساء الحقيقية، وفي بعض الحالات الأطفال، إلى صور جنسية بدون موافقتهم. وفقًا لبعض التقارير، أنتج Grok آلاف الصور الجنسية غير المتفق عليها كل ساعة، والتي تم توزيعها بعد ذلك على نطاق واسع على X، منصة وسائل التواصل الاجتماعي التي يمتلكها ماسك وتديرها xAI.

reads.
“من المقلق بشدة أن تستمر الحكومة الفيدرالية في نشر منتج ذكاء اصطناعي يعاني من فشل على مستوى النظام مما يؤدي إلى إنتاج صور جنسية غير متفق عليها ومواد اعتداء جنسي على الأطفال”، بحسب ما يقول الخطاب، الذي وقعت عليه مجموعات الدفاع مثل Public Citizen وCenter for AI and Digital Policy وConsumer Federation of America. “بالنظر إلى الأوامر التنفيذية والإرشادات التي أصدرتها الإدارة، فضلاً عن قانون Take It Down الذي تم تمريره مؤخرًا لدعمه من قبل البيت الأبيض، فإنه من المثير للقلق أن مكتب الإدارة والميزانية لم يوجه بعد الوكالات الفيدرالية لإيقاف Grok.”

توصلت xAI إلى اتفاق في سبتمبر الماضي مع إدارة الخدمات العامة (GSA)، الذراع الشرائية للحكومة، لبيع Grok للوكالات الفيدرالية تحت الفرع التنفيذي. قبل شهرين، حصلت xAI – جنبًا إلى جنب مع Anthropic وGoogle وOpenAI – على عقد بقيمة تصل إلى 200 مليون دولار مع وزارة الدفاع.

وسط الفضائح على X في منتصف يناير، قال وزير الدفاع بيت هيغساث إن Grok سينضم إلى Gemini من Google للعمل داخل شبكة البنتاغون، مع التعامل مع كل من الوثائق السرية وغير السرية، وهو ما يقول الخبراء إنه يشكل خطرًا على الأمن القومي.

يجادل مؤلفو الرسالة بأن Grok قد أثبت أنه غير متوافق مع متطلبات الإدارة لأنظمة الذكاء الاصطناعي. وفقًا لإرشادات OMB، يجب أن يتم إيقاف الأنظمة التي تمثل مخاطر شديدة ومتوقعة لا يمكن تخفيفها بشكل كاف.

“قلقنا الأساسي هو أن Grok قد أظهر بشكل مستمر أنه نموذج لغة كبير غير آمن”، كما أخبر JB Branch، المدافع عن المساءلة تجاه شركات التكنولوجيا الكبرى وأحد مؤلفي الرسالة، TechCrunch. “لكن هناك أيضًا تاريخ طويل لـ Grok من الانهيارات المتنوعة، بما في ذلك تعبيرات معادية للسامية، وشتائم جنسية، وصور جنسية للنساء والأطفال.”

حدث Techcrunch

بوسطن، ماساتشوستس
|
23 يونيو، 2026

أظهرت عدة حكومات عدم استعدادها للتعامل مع Grok بعد سلوكه في يناير، والذي يبني على سلسلة من الحوادث بما في ذلك إنتاج منشورات معادية للسامية على X وادعاءه بأنه “MechaHitler”. منعت إندونيسيا وماليزيا والفلبين الوصول إلى Grok (ثم رفعت تلك الحظر)، والاتحاد الأوروبي والمملكة المتحدة وكوريا الجنوبية والهند تحقق بشكل نشط في xAI وX بشأن خصوصية البيانات وتوزيع المحتوى غير القانوني.

تأتي الرسالة أيضًا بعد أسبوع من تقييم المخاطر القاسي الذي نشرته Common Sense Media، وهي منظمة غير ربحية تقوم بمراجعة وسائل الإعلام والتكنولوجيا للعائلات، والذي وجد أن Grok من بين الأكثر عدم أمانًا للأطفال والمراهقين. يمكن القول إنه، بناءً على نتائج التقرير – بما في ذلك ميل Grok لتقديم نصائح غير آمنة، ومشاركة معلومات حول المخدرات، وإنتاج صور عنيفة وجنسية، ونشر نظريات مؤامرة، وإصدار نتائج متحيزة – فإن Grok ليس آمنًا للكبار أيضًا.

“إذا كنت تعرف أن نموذج اللغة الكبير قد تم إعلان عدم أمانه من قبل خبراء سلامة الذكاء الاصطناعي، لماذا تريد أن يتعامل مع أكثر البيانات حساسية لدينا؟” قال Branch. “من منظور الأمن القومي، فإن ذلك لا معنى له على الإطلاق.”

أندرو كريستيانسون، متعهد سابق في وكالة الأمن القومي والمؤسس الحالي لمنصة Gobbi AI، وهي منصة وكيل ذكاء اصطناعي بدون كود للبيئات السرية، يقول إن استخدام نماذج اللغة الكبيرة المغلقة المصدر بشكل عام يمثل مشكلة، خصوصًا للبنتاغون.

“أوزان مغلقة تعني أنه لا يمكنك رؤية داخل النموذج، ولا يمكنك تدقيق كيفية اتخاذه للقرارات”، على حد قوله. “شيفرة مغلقة تعني أنك لا تستطيع فحص البرنامج أو التحكم في مكان تشغيله. البنتاغون يتجه نحو كلا الأمرين، وهو أسوأ مزيج ممكن من أجل الأمن القومي.”

“هؤلاء الوكلاء من الذكاء الاصطناعي ليسوا مجرد روبوتات دردشة”، أضاف كريستيانسون. “يمكنهم اتخاذ إجراءات، والوصول إلى الأنظمة، وتحريك المعلومات. تحتاج إلى رؤية بالضبط ما يفعلونه وكيف يتخذون القرارات. المصدر المفتوح يمنحك ذلك. الذكاء الاصطناعي السحابي المملوك لا يفعل ذلك.”

تشير مخاطر استخدام الأنظمة المفسدة أو غير الآمنة إلى ما هو أبعد من حالات استخدام الأمن القومي. أشار Branch إلى أن نموذج اللغة الكبير الذي ثبت أن لديه نتائج متحيزة ومميزة يمكن أن ينتج آثارًا سلبية غير متناسبة على الأشخاص أيضًا، خاصة إذا تم استخدامه في الأقسام المعنية بالسكن أو العمل أو العدالة.

بينما لم ينشر OMB بعد قائمة مختصرة لحالات استخدام الذكاء الاصطناعي الفيدرالية لعام 2025، قامت TechCrunch بمراجعة حالات استخدام عدة وكالات – معظمها إما غير مستخدمة لـ Grok أو لا يكشفون عن استخدامهم لـ Grok. بخلاف وزارة الدفاع، يبدو أن وزارة الصحة والخدمات الإنسانية تستخدم Grok بنشاط، بشكل رئيسي لجدولة وإدارة منشورات وسائل التواصل الاجتماعي وإنتاج مسودات أولى للوثائق أو الإحاطات أو مواد الاتصالات الأخرى.

أشار Branch إلى ما يراه ت alignment بين Grok والإدارة كسبب لتجاوز قصور الروبوت الدردشة.

“علامة Grok التجارية هي كونها ‘نموذج اللغة الكبير المناهض للاستيقاظ’، وهذا يتناسب مع فلسفة هذه الإدارة”، قال Branch. “إذا كان لديك إدارة واجهت عدة قضايا مع الأشخاص الذين تمت اتهامهم بأنهم نازيون جدد أو متطرفين بيض، ومن ثم يستخدمون نموذج لغة كبير مرتبط بنوع هذا السلوك، أتخيل أنهم قد يكون لديهم ميل لاستخدامه.”

هذه هي الرسالة الثالثة للائتلاف بعد كتابة اهتمامات مشابهة في أغسطس وأكتوبر من العام الماضي. في أغسطس، أطلقت xAI “وضع حار” في Grok Imagine، مما أدى إلى إنشاء جماعي من صور جنسية غير متفق عليها. كذلك ذكرت TechCrunch في أغسطس أن المحادثات الخاصة لـ Grok تم فهرستها بواسطة بحث جوجل.

قبل الرسالة في أكتوبر، تم اتهام Grok بتوفير معلومات مضللة عن الانتخابات، تشمل مواعيد غير صحيحة لتغييرات الاقتراع وصور عميقة سياسية. كما أطلقت xAI Grokipedia، والذي وجده الباحثون يشرع العنصرية العلمية، والتشكيك في فيروس نقص المناعة البشرية/الإيدز، ونظريات مؤامرة اللقاحات.

بجانب طلب تعليق نشر Grok الفيدرالي بشكل فوري، تطلب الرسالة من OMB التحقيق رسميًا في فشل سلامة Grok وما إذا كانت العمليات اللازمة للرقابة قد أُجريت على الروبوت الدردشة. كما تطلب من الوكالة توضيح ما إذا تم تقييم Grok لمطابقة الأمر التنفيذي لترامب الذي يتطلب أن تكون نماذج اللغة الكبيرة بحثية وحيادية وما إذا كانت تفي بمعايير تقليل المخاطر الخاصة بـ OMB.

“يحتاج الإدارة إلى أخذ استراحة وإعادة تقييم ما إذا كان Grok يلبي تلك المعايير”، قال Branch.

تواصلت TechCrunch مع xAI وOMB للتعليق.


المصدر

Exit mobile version