ماسک ينفي علمه بصور غير قانونية لجروك في حين تبدأ المدعي العام في كاليفورنيا تحقيقًا

ماسک ينفي علمه بصور غير قانونية لجروك في حين تبدأ

قال إيلون ماسك يوم الأربعاء إنه “ليس على علم بأي صور عارية لأشخاص قاصرين تم إنشاؤها بواسطة Grok”، وذلك قبل ساعات من افتتاح المدعي العام في كاليفورنيا تحقيقًا حول روبوت الدردشة الخاص بـ xAI بسبب “انتشار مواد جنسية صريحة غير consensual”.

يأتي نفي ماسك في وقت تزداد فيه الضغوط من الحكومات حول العالم – من المملكة المتحدة وأوروبا إلى ماليزيا وإندونيسيا – بعد أن بدأ مستخدمو X في طلب تحويل Grok لصور النساء الحقيقيات، وفي بعض الحالات الأطفال، إلى صور جنسية بشكل غير قانوني. وتقدّر Copyleaks، وهي منصة للكشف عن الذكاء الاصطناعي وإدارة المحتوى، أن صورة واحدة كانت تُنشر في كل دقيقة على X. عينة منفصلة تم جمعها من 5 يناير إلى 6 يناير وجدت 6,700 صورة في الساعة خلال فترة 24 ساعة. (X و xAI جزء من نفس الشركة.)

قال المدعي العام في كاليفورنيا، روب بونتا، في بيان: “لقد تم استخدام هذه المواد لمضايقة الناس عبر الإنترنت”. “أحث xAI على اتخاذ إجراءات فورية للتأكد من أن هذا لا يتجاوز أكثر من ذلك.”

ستحقق إدارة المدعي العام في ما إذا كانت xAI قد انتهكت القانون وكيفية حدوث ذلك.

هناك عدة قوانين لحماية ضحايا المحتوى الجنسي غير consensual ومحتوى الاعتداء الجنسي على الأطفال (CSAM). في العام الماضي، تم توقيع قانون Take It Down ليصبح قانونًا اتحاديًا، يُجرّم توزيع الصور الحميمة غير consensual بشكل معروف – بما في ذلك deepfakes – ويتطلب من المنصات مثل X إزالة مثل هذا المحتوى خلال 48 ساعة. كما أن لدى كاليفورنيا مجموعة خاصة من القوانين التي وقعها الحاكم غافين نيوسوم في عام 2024 للحد من deepfakes الجنسية الصريحة.

بدأ Grok في تلبية طلبات المستخدمين على X لإنتاج صور جنسية للنساء والأطفال في نهاية العام. يبدو أن هذا الاتجاه قد انطلق بعد أن دفع بعض منشئي المحتوى للكبار Grok لإنشاء صور جنسية لأنفسهم كنوع من التسويق، مما أدى بعد ذلك إلى إصدار مستخدمين آخرين لطلبات مماثلة. في عدد من الحالات العامة، بما في ذلك شخصيات معروفة مثل الممثلة ميلي بوبي براون من “غريب الأشياء”، استجاب Grok لطلبات طلبت منه تعديل صور حقيقية لنساء حقيقيات من خلال تغيير الملابس أو وضع الجسم أو الملامح الجسدية بطرق واضحة جنسية.

وفقًا لبعض التقارير، بدأت xAI في تنفيذ تدابير أمان لمعالجة المشكلة. يتطلب Grok الآن اشتراكًا مميزًا قبل الرد على طلبات معينة لإنشاء الصور، وحتى في هذه الحالة قد لا يتم إنشاء الصورة. قالت أبريل كوزن، نائب رئيس التسويق في Copyleaks، لموقع TechCrunch إن Grok قد يستجيب لطلب بطريقة أكثر عمومية أو معتدلة. وأضافت أن Grok يبدو أكثر تساهلاً مع منشئي المحتوى للكبار.

حدث Techcrunch

سان فرانسيسكو
|
من 13 إلى 15 أكتوبر 2026

قالت كوزن: “بشكل عام، تشير هذه السلوكيات إلى أن X يجرب آليات متعددة للتقليل أو السيطرة على إنتاج الصور المشكلة، رغم استمرار التناقضات.”

لم يتناول أي من xAI أو ماسك المشكلة بشكل مباشر. بعد أيام قليلة من بدء الحوادث، بدا أن ماسك يستهزئ بالمشكلة من خلال طلب Grok لإنشاء صورة له في مايوه. في 3 يناير، قالت حساب الأمان الخاص بـ X إن الشركة تتخذ “إجراءات ضد المحتوى غير القانوني على X، بما في ذلك [CSAM]”، دون الإشارة بشكل محدد إلى نقص الاحتياطات الواضحة لـ Grok أو إنشاء صور معاد تشكيلها جنسيًا تتضمن النساء.

يتناسب الموقف مع ما نشره ماسك اليوم، مؤكدًا على عدم قانونية وسلوك المستخدمين.

كتب ماسك أنه “ليس على علم بأي صور عارية لأشخاص قاصرين تم إنشاؤها بواسطة Grok. صفر حرفيًا”. لا تنكر تلك العبارة وجود صور مايوه أو تعديلات جنسية بشكل عام.

قال مايكل غودير، أستاذ مشارك في كلية نيويورك للقانون ومدعى سابق، لموقع TechCrunch إن ماسك ربما ركز على CSAM بشكل ضيق لأن العقوبات على إنشاء أو توزيع صور جنسية اصطناعية للأطفال أكبر.

أضاف: “على سبيل المثال، في الولايات المتحدة، يمكن للناشر أو الناشر المهدد لـ CSAM أن يواجه عقوبة تصل إلى ثلاث سنوات في السجن بموجب قانون Take It Down، مقارنة بسنتين للصور الجنسية غير consensual للكبار”.

أضاف أن “النقطة الأكبر” هي محاولة ماسك لزيادة الوعي بمحتوى المستخدمين الإشكالي.

كتب ماسك في منشوره: “من الواضح أن Grok لا يولد الصور بشكل عشوائي. يفعل ذلك فقط وفقًا لطلب المستخدم”. “عند الطلب لإنشاء صور، سيرفض إنتاج أي شيء غير قانوني، حيث إن المبدأ التشغيلي لـ Grok هو الالتزام بقوانين أي دولة أو ولاية معينة. قد تكون هناك أوقات تحدث فيها هجمات عدائية على تحفيزات Grok تؤدي إلى شيء غير متوقع. إذا حدث ذلك، سنقوم بإصلاح الخطأ على الفور.”

تجمع هذه المنشور بين وصف هذه الحوادث على أنها غير شائعة، تنسبها إلى طلبات المستخدم أو التحفيز العدائي، وتقدمها كقضايا تقنية يمكن حلها من خلال إصلاحات. لكنها تتوقف دون الاعتراف بأي قصور في تصميم سلامة Grok الأساسي.

قال غودير: “قد يعتبر المنظمون، مع الانتباه إلى حماية حرية التعبير، ضرورة فرض تدابير استباقية من قبل مطوري الذكاء الاصطناعي لمنع مثل هذا المحتوى.”

تواصلت TechCrunch مع xAI للاستفسار عن عدد المرات التي رصدت فيها حالات لصور معدلة جنسيًا دون رضا من النساء والأطفال، وما هي التغييرات المحددة التي تمت، وما إذا كانت الشركة قد أبلغت المنظمين عن هذه المشكلة. ستقوم TechCrunch بتحديث المقال إذا ردت الشركة.

ليس المدعي العام في كاليفورنيا هو الجهة المنظمة الوحيدة التي تحاول محاسبة xAI على هذه المشكلة. قامت إندونيسيا وماليزيا كلاهما بحجب وصول مؤقت إلى Grok؛ وطالبت الهند X بإجراء تغييرات تقنية وإجرائية فورية على Grok؛ وأمرت المفوضية الأوروبية xAI بالاحتفاظ بجميع الوثائق المتعلقة بروبوت الدردشة Grok، كخطوة استباقية لفتح تحقيق جديد؛ وفتحت هيئة مراقبة السلامة عبر الإنترنت في المملكة المتحدة Ofcom تحقيقًا رسميًا بموجب قانون السلامة عبر الإنترنت في المملكة المتحدة.

تعرضت xAI بالفعل للنقد بسبب الصور الجنسية التي تنتجها Grok. كما أشار AG بونتا في بيان، يتضمن Grok “وضع حار” لإنشاء محتوى صريح. في أكتوبر، جعل تحديث الأمر أسهل بكثير لكسر ما تبقى من إرشادات السلامة، مما أدى إلى قيام العديد من المستخدمين بإنشاء مواد إباحية بالغة مع Grok، بالإضافة إلى صور جنسية عادية وعنيفة.

العديد من الصور الإباحية التي أنتجها Grok كانت لأشخاص تم إنشاؤهم بواسطة الذكاء الاصطناعي – وهو شيء قد يعتبره الكثيرون مشكوكًا فيه أخلاقيًا ولكنه قد يكون أقل ضررًا على الأفراد في الصور والفيديوهات.

قال ألون يامين، الشريك المؤسس والرئيس التنفيذي لشركة Copyleaks في بيان أرسل إلى TechCrunch: “عندما تسمح أنظمة الذكاء الاصطناعي بتعديل صور الأشخاص الحقيقيين بدون إذن واضح، يمكن أن يكون الأثر فوريًا وعميقًا”. “من Sora إلى Grok، نشهد ارتفاعًا سريعًا في قدرات الذكاء الاصطناعي على الوسائط المعدلة. وفي هذا الصدد، تعتبر الإدارة والكشف أكثر أهمية من أي وقت مضى للمساعدة في منع إساءة الاستخدام.”


المصدر

Exit mobile version