رفضت ميتا التوقيع على مدونة السلوك الخاصة بالاتحاد الأوروبي لقانون الذكاء الاصطناعي، وذلك قبل أسابيع من سريان قواعد الكتلة الخاصة بمقدمي نماذج الذكاء الاصطناعي العامة.
كتب جويل كابلان، المسؤول الرئيسي عن الشؤون العالمية في ميتا، في منشور على لينكيد إن: “تتجه أوروبا في اتجاه خاطئ بشأن الذكاء الاصطناعي”. “لقد استعرضنا بعناية مدونة السلوك الخاصة بالمفوضية الأوروبية لنماذج الذكاء الاصطناعي العامة (GPAI)، ولن توقع ميتا عليها. قدمت هذه المدونة عددًا من الغموض القانوني لمطوري النماذج، بالإضافة إلى تدابير تتجاوز بكثير نطاق قانون الذكاء الاصطناعي.”
تهدف مدونة السلوك الخاصة بالاتحاد الأوروبي – وهي إطار عمل طوعي نُشر في وقت سابق من هذا الشهر – إلى مساعدة الشركات في تنفيذ العمليات والأنظمة للامتثال للتشريعات الخاصة بالكتلة لتنظيم الذكاء الاصطناعي. من بين أمور أخرى، تتطلب المدونة من الشركات تقديم وثائق وتحديثها بانتظام حول أدواتها وخدماتها في مجال الذكاء الاصطناعي؛ وتحظر على المطورين تدريب الذكاء الاصطناعي على محتوى مسروق؛ والامتثال لطلبات مالكي المحتوى بعدم استخدام أعمالهم في مجموعات البيانات الخاصة بهم.
وصف كابلان تنفيذ الاتحاد الأوروبي للتشريع بأنه “تجاوز”، وادعى أن القانون سيؤدي إلى “إعاقة تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا، وعرقلة الشركات الأوروبية التي تسعى لبناء أعمال على أساسها.”
بصفتها تنظيمًا قائمًا على المخاطر لتطبيقات الذكاء الاصطناعي، يحظر قانون الذكاء الاصطناعي بعض الحالات التي تشكل “مخاطر غير مقبولة” بشكل مباشر، مثل التلاعب السلوكي المعرفي أو التصنيف الاجتماعي. كما تحدد القواعد مجموعة من الاستخدامات “ذات المخاطر العالية”، مثل البيومترية والتعرف على الوجه، وفي مجالات مثل التعليم والتوظيف. يتطلب القانون أيضًا من المطورين تسجيل أنظمة الذكاء الاصطناعي والامتثال لالتزامات إدارة المخاطر والجودة.
تعمل شركات التقنية من جميع أنحاء العالم، بما في ذلك تلك التي تتصدر سباق الذكاء الاصطناعي مثل ألفابت وميتا ومايكروسوفت وMistral AI، على محاربة هذه القواعد، بل ودعت المفوضية الأوروبية لتأجيل دخولها حيز التنفيذ. لكن المفوضية تمسكت بموقفها، مؤكدة أنها لن تغير جدولها الزمني.
كما قامت الاتحاد الأوروبي يوم الجمعة بنشر إرشادات لمقدمي نماذج الذكاء الاصطناعي قبيل القواعد التي ستدخل حيز التنفيذ في 2 أغسطس. ستؤثر هذه القواعد على مقدمي “نماذج الذكاء الاصطناعي العامة ذات المخاطر النظامية”، مثل OpenAI وAnthropic وGoogle وMeta. سيُطلب من الشركات التي لديها مثل هذه النماذج في السوق قبل 2 أغسطس الامتثال للتشريعات بحلول ذلك التاريخ.
حدث Techcrunch
سان فرانسيسكو
|
27-29 أكتوبر 2025
