موظفو OpenAI وجوجل يتسارعون للدفاع عن أنثروبيك في دعوى وزارة الدفاع

Popular AI virtual assistant apps on an Apple iPhone: ChatGPT, Claude, Gemini, Copilot, Perplexity, and Poe.

أكثر من 30 موظفًا من OpenAI وGoogle DeepMind قدموا بيانًا يوم الاثنين لدعم دعوى Anthropic ضد وزارة الدفاع الأمريكية بعد أن وسمت الوكالة الفيدرالية شركة الذكاء الاصطناعي كخطر على سلسلة الإمداد، وفقًا لمستندات المحكمة.

“كان تصنيف الحكومة لـ Anthropic كخطر على سلسلة الإمداد استخدامًا غير صحيح وعشوائي للسلطة له تداعيات خطيرة على صناعتنا”، بحسب مختصر البيان الذي تضمن توقيع كبير العلماء في Google DeepMind جيف دين.

في وقت متأخر من الأسبوع الماضي، صنفت وزارة الدفاع Anthropic كخطر على سلسلة الإمداد – وهو تصنيف عادة ما يُخصص للأعداء الأجانب – بعد أن رفضت الشركة السماح لوزارة الدفاع باستخدام تقنيتها لمراقبة جماعية للأمريكيين أو إطلاق أسلحة بشكل تلقائي. وقد جادلت وزارة الدفاع بأنه يجب أن تكون قادرة على استخدام الذكاء الاصطناعي لأي غرض “قانوني” وليس أن تكون مقيدة من قبل مقاول خاص.

ظهر مختصر الصديق الداعم لـ Anthropic في السجل بعد بضع ساعات من تقديم صانع Claude دعويين ضد وزارة الدفاع ووكالات فيدرالية أخرى. وكانت Wired هي أول من أبلغ عن الخبر.

في مستند المحكمة، يؤكد موظفو Google وOpenAI على أنه إذا لم يكن البنتاغون “راضيًا بعد الآن عن الشروط المتفق عليها في عقده مع Anthropic”، كان بإمكان الوكالة “ببساطة إلغاء العقد وشراء خدمات شركة ذكاء اصطناعي رائدة أخرى.”

في الواقع، وقعت وزارة الدفاع صفقة مع OpenAI في لحظات من تصنيف Anthropic كخطر على سلسلة الإمداد – وهي خطوة احتج عليها العديد من موظفي صانع ChatGPT.

“إذا سمح لهذا الجهد بالاستمرار، فإن محاولة معاقبة إحدى الشركات الرائدة في الذكاء الاصطناعي الأمريكية ستؤدي بلا شك إلى عواقب على القدرة التنافسية الصناعية والعلمية للولايات المتحدة في مجال الذكاء الاصطناعي وما بعده”، كما جاء في المختصر. “وسيعيق هذا النقاش المفتوح في مجالنا حول مخاطر وفوائد أنظمة الذكاء الاصطناعي الحالية.”

حدث Techcrunch

سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026

كما يؤكد التقديم على أن الحدود الحمراء المحددة من قبل Anthropic هي مخاوف مشروعة تستدعي حماية قوية. وبدون قانون عام يحكم استخدام الذكاء الاصطناعي، فإن القيود التعاقدية والفنية التي يفرضها المطورون على أنظمتهم هي وسيلة حماية حاسمة ضد سوء الاستخدام الكارثي.

عديد من الموظفين الذين وقعوا البيان وقعوا أيضًا على رسائل مفتوحة خلال الأسابيع القليلة الماضية تحث وزارة الدفاع على سحب التصنيف وتدعو قادة شركاتهم لدعم Anthropic ورفض الاستخدام الأحادي لأنظمتهم الذكاء الاصطناعي.


المصدر

Comments

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *