أوبن-ai تشدد إجراءات الأمان لإبعاد الأعين المتطفلة

Artificial intelligence technology futuristic background. Green binary coding letters on black.

أفادت التقارير أن شركة OpenAI قد قامت بإعادة هيكلة عمليات الأمن لديها لحماية نفسها من التجسس corporat. وفقًا لصحيفة Financial Times، تسارعت الشركة في فرض إجراءات أمنية موجودة بالفعل بعد أن أصدرت الشركة الناشئة الصينية DeepSeek نموذجًا منافسًا في يناير، حيث زعمت OpenAI أن DeepSeek قامت بنسخ نماذجها بشكل غير صحيح باستخدام تقنيات “التقطير”.

تشمل إجراءات الأمن المعززة سياسات “تخيم المعلومات” التي تحد من وصول الموظفين إلى الخوارزميات الحساسة والمنتجات الجديدة. على سبيل المثال، خلال تطوير نموذج o1 من OpenAI، كان يمكن فقط لأعضاء الفريق الذين تم التحقق منهم والذين تم إطلاعهم على المشروع مناقشته في مساحات المكتب المشتركة، وفقًا لـ FT.

وهناك المزيد. تقوم OpenAI الآن بعزل التكنولوجيا الخاصة في أنظمة الكمبيوتر غير المتصلة بالإنترنت، وتطبيق ضوابط الوصول البيومترية لمناطق المكتب (تقوم بمسح بصمات أصابع الموظفين)، وتحافظ على سياسة إنترنت “الرفض بشكل افتراضي” التي تتطلب موافقة صريحة للاتصالات الخارجية، وفقًا للتقرير، الذي أضاف أيضًا أن الشركة قد زادت من الأمن المادي في مراكز البيانات ووسعت عدد موظفي الأمن السيبراني.

تُقال التغييرات إنها تعكس مخاوف أوسع بشأن الأعداء الأجانب الذين يحاولون سرقة الملكية الفكرية لـ OpenAI، على الرغم من أنه بالنظر إلى الحروب القائمة على التجنيد بين شركات الذكاء الاصطناعي الأمريكية وزيادة تسرب تعليقات الرئيس التنفيذي سام ألتمن، قد تكون OpenAI تحاول معالجة قضايا الأمن الداخلي أيضًا.

لقد تواصلنا مع OpenAI للتعليق.


المصدر