النائب في كاليفورنيا خلف مشروع القانون SB 1047 يعيد إشعال الدفع نحو فرض تقارير سلامة الذكاء الاصطناعي

dome of California State Capitol Building, Sacramento

قدم السيناتور الأمريكي في ولاية كاليفورنيا سكوت وينر يوم الأربعاء تعديلات جديدة على مشروع قانون الأخير، SB 53، الذي سيطلب من أكبر شركات الذكاء الاصطناعي في العالم نشر بروتوكولات السلامة والأمان وإصدار تقارير عندما تحدث حوادث تتعلق بالسلامة.

إذا تم توقيعه ليصبح قانونًا، ستكون كاليفورنيا أول ولاية تفرض متطلبات شفافية ملموسة على مطوري الذكاء الاصطناعي الرائدين، من المحتمل أن تشمل OpenAI وGoogle وAnthropic وxAI.

شمل مشروع قانون وينر السابق، SB 1047، متطلبات مشابهة لمطوري نماذج الذكاء الاصطناعي لنشر تقارير السلامة. ومع ذلك، قاتلت وادي السيليكون بشراسة ضد هذا القانون، وفي النهاية تم نقضه من قبل الحاكم جافين نيوسوم. بعد ذلك، دعا حاكم كاليفورنيا مجموعة من قادة الذكاء الاصطناعي — بما في ذلك الباحث الرائد في جامعة ستانفورد والمؤسس المشارك لـ World Labs، فاي فاي لي — لتشكيل مجموعة سياسية وتحديد أهداف لجهود السلامة في ولاية كاليفورنيا.

نشرت المجموعة السياسية لسياسات الذكاء الاصطناعي في كاليفورنيا مؤخرًا توصياتها النهائية، مشيرة إلى الحاجة إلى “متطلبات على الصناعة لنشر معلومات حول أنظمتها” من أجل إنشاء “بيئة أدلة قوية وشفافة.” قالت مكتب السيناتور وينر في بيان صحفي إن تعديلات SB 53 تأثرت بشدة بهذه التقرير.

قال السيناتور وينر في البيان: “لا يزال القانون يعمل في إطار التحسين، وأتطلع إلى العمل مع جميع المعنيين في الأسابيع المقبلة لصقل هذا الاقتراح ليصبح الأكثر علمية وعدلاً ممكنًا.”

يهدف SB 53 إلى تحقيق توازن زعم الحاكم نيوسوم أن SB 1047 فشل في تحقيقه — وهو إنشاء متطلبات شفافية مهمة لأكبر مطوري الذكاء الاصطناعي دون عرقلة النمو السريع لصناعة الذكاء الاصطناعي في كاليفورنيا.

قال ناثان كالفين، نائب رئيس شؤون الدولة لمجموعة Encode للسلامة في الذكاء الاصطناعي، في مقابلة مع TechCrunch: “هذه مخاوف كانت منظمات مثل منظمتي وغيرها تتحدث عنها لبعض الوقت. يبدو أن إيضاح الشركات للجمهور والحكومة مدى الإجراءات التي تتخذها لمعالجة هذه المخاطر هو خطوة معقولة وتعتبر الحد الأدنى.”

ينشئ المشروع أيضًا حماية للمبلغين عن المخالفات لموظفي مختبرات الذكاء الاصطناعي الذين يعتقدون أن تكنولوجيا شركتهم تشكل “خطرًا حرجًا” على المجتمع — الذي تم تعريفه في المشروع على أنه يتسبب في وفاة أو إصابة أكثر من 100 شخص، أو أكثر من مليار دولار من الأضرار.

بالإضافة إلى ذلك، يهدف المشروع إلى إنشاء CalCompute، مجموعة حوسبة سحابية عامة لدعم الشركات الناشئة والباحثين الذين يطورون الذكاء الاصطناعي على نطاق واسع.

مع التعديلات الجديدة، يتجه SB 53 الآن إلى لجنة الخصوصية وحماية المستهلك في الجمعية العامة لولاية كاليفورنيا للموافقة. إذا تم تمريره هناك، سيحتاج المشروع أيضًا إلى المرور عبر العديد من الهيئات التشريعية الأخرى قبل أن يصل إلى مكتب الحاكم نيوسوم.

على الجانب الآخر من الولايات المتحدة، تفكر حاكمة نيويورك كاثي هوشول الآن في مشروع قانون سلامة ذكاء اصطناعي مشابه، وهو قانون RAISE، الذي سيطلب أيضًا من مطوري الذكاء الاصطناعي الكبار نشر تقارير السلامة والأمان.

كانت مصير قوانين الذكاء الاصطناعي على مستوى الولاية مثل RAISE وSB 53 في خطر لفترة قصيرة حيث نظر المشرعون الفيدراليون في فرض حظر لمدة 10 سنوات على تنظيم الذكاء الاصطناعي في الولايات — وهو محاولة للحد من “أنظمة قوانين غير متناغمة” يجب على الشركات التنقل عبرها. ومع ذلك، فشلت تلك الاقتراح في تصويت مجلس الشيوخ 99-1 في وقت سابق من يوليو.

قال غيف رالستون، الرئيس السابق لشركة Y Combinator، في بيان لـ TechCrunch: “يجب ألا يكون ضمان تطوير الذكاء الاصطناعي بشكل آمن مثيرًا للجدل — بل يجب أن يكون أساسيًا.” “يجب أن تقود الكونغرس، وتطالب بالشفافية والمساءلة من الشركات التي تبني نماذج متطورة. ولكن مع عدم وجود إجراءات فيدرالية جدية في الأفق، يجب على الولايات الحفاظ على التحرك. يمثل SB 53 في كاليفورنيا مثالًا مدروسًا ومنظمًا لقيادة الولاية.”

إلى هذه النقطة، فشل المشرعون في الحصول على دعم شركات الذكاء الاصطناعي لمتطلبات الشفافية المفروضة على مستوى الولاية. وقد دعمت Anthropic بشكل واسع الحاجة إلى زيادة الشفافية في شركات الذكاء الاصطناعي، وحتى أعربت عن تفاؤل معتدل بشأن التوصيات من مجموعة سياسات الذكاء الاصطناعي في كاليفورنيا. لكن شركات مثل OpenAI وGoogle وMeta كانت أكثر مقاومة لهذه الجهود.

عادةً ما تنشر مطورو نماذج الذكاء الاصطناعي الرئيسية تقارير السلامة لنماذجها، لكنهم كانوا أقل تناسقًا في الأشهر الأخيرة. على سبيل المثال، قررت Google عدم نشر تقرير سلامة لأكثر نماذج الذكاء الاصطناعي تقدمًا التي أصدرتها على الإطلاق، Gemini 2.5 Pro، حتى بعد أشهر من إتاحته. كما قررت OpenAI أيضًا عدم نشر تقرير سلامة لنموذجها GPT-4.1. بعد ذلك، صدرت دراسة من جهة خارجية تشير إلى أنه قد يكون أقل توافقًا من نماذج الذكاء الاصطناعي السابقة.

يمثل SB 53 نسخة مخففة من قوانين سلامة الذكاء الاصطناعي السابقة، ولكنه لا يزال يمكن أن يجبر شركات الذكاء الاصطناعي على نشر مزيد من المعلومات مما تفعل اليوم. في الوقت الحالي، سيراقبون عن كثب بينما يختبر السيناتور وينر تلك الحدود مرة أخرى.


المصدر