التقرير يقرع نواقيس الخطر، لكن ما المختلف فيه مقارنة بالتحذيرات السابقة؟
في أكتوبر 2022، وعندما كان إطلاق روبوت ChatGPT لا يزال على بعد شهر واحد، كلفت حكومة الولايات المتحدة شركة «Gladstone AI» بالعمل على تقرير لتقييم التهديدات الأمنية التي يُشكلّها الذكاء الاصطناعي على البشرية. وبعد مرور قرابة عام ونصف تقريباً، انتهى التقرير، ووجد أن الذكاء الاصطناعي يمكن أن يُسبب «تهديداً على مستوى الانقراض للجنس البشري».
وخلص التقرير أيضاً أن الذكاء الاصطناعي وتحديداً الذكاء الاصطناعي العام قد يُصبح لديه القدرة مستقبلاً على زعزعة استقرار الأمن الدولي بطرق لا تقل خطورة عن الأسلحة النووية.
الجدير بالذكر أن الذكاء الاصطناعي العام، يشير إلى مفهوم التكنولوجيا التي ستكون قادرة على أداء مهام متنوعة ومختلفة وليست محصورة بمجال واحد فقط. وقد تحدث العديد من قادة التكنولوجيا مثل مارك زوكربيرغ وسام ألتمان بالفعل مراراً وتكراراً عن كون الذكاء الاصطناعي العام هو المستقبل، ومن الممكن أن يشهد طفرة ثورية خلال السنوات الخمس المقبلة أو ربما حتى قبل ذلك. فيما يجادل خبراء بأننا قد وصلنا إلى الذكاء الاصطناعي العام أصلاً، وبالأخص في روبوتات المحادثة.
ويقترح التقرير على حكومة الولايات المتحدة التحرك بسرعة وحسم لتجنب المخاطر المتزايدة على الأمن القومي الناجمة عن الذكاء الاصطناعي.
تولى ثلاث باحثين كتابة التقرير خلال أكثر من عام، وأفادوا أنهم تحدثوا خلال تلك الفترة مع أكثر من 200 فرد، بما في ذلك مسؤولين حكوميين وخبراء وموظفين في بعض شركات الذكاء الاصطناعي البارزة، مثل جوجل، وOpenAI، وDeepMind، وAnthropic، وMeta.
كما أكد الخبراء أن النتائج المُستخلصة من تلك النقاشات مع هؤلاء المسئولين البارزين، تُسلّط الضوء على نظرة تشاؤمية مستقبلية مثيرة للقلق، مما يشير إلى أن العديد من المتخصصين في سلامة الذكاء الاصطناعي متخوفون بشكل جدي من إمكانية حدوث أزمات في المستقبل قد تدفع الشركات لكبح جماح تلك التقنية التي تتطور بشكل مذهل يوماً بعد يوم.
ويقترح التقرير مجموعة شاملة وغير مسبوقة من التدابير السياسية التي، إذا تم تنفيذها، من شأنها أن تمنع حدوث أي مشاكل محتملة بسبب تطور الذكاء الاصطناعي المتسارع.
ووفقاً لتوصيات التقرير، ينبغي لحكومة الولايات المتحدة أن تفكر في وضع حدود لمدى البيانات والمعلومات التي تحصل عليها روبوتات الذكاء الاصطناعي، وينبغي تحديد هذه الضوابط بشكل واضح وحاسم من قِبل هيئة حكومية مخصصة يتم إنشائها خصيصاً لهذا الغرض.
علاوة على ذلك، يشير التقرير إلى أن تلك الهيئة الجديدة يجب أن تكون المسئولة عن إعطاء التراخيص اللازمة لشركات الذكاء الاصطناعي مثل Google وOpenAI قبل تدريب الروبوتات الجديدة.
يؤكد التقرير كذلك على الحاجة المُلّحة لاستكشاف إمكانية حظر الكشف عن معلومات هامة وحساسة تخص الأمن القومي للبلاد لنماذج الذكاء الاصطناعي القوية، مع عقوبات محتملة بما في ذلك السجن في حالة قيام أي شركة بانتهاك تلك الشروط.
يُوصي التقرير أيضاً بتعزيز الرقابة الحكومية على إنتاج وتصدير رقاقات الذكاء الاصطناعي، إلى جانب توجيه التمويل الفيدرالي نحو المبادرات البحثية التي تُركّز على مواءمة تقنيات الذكاء الاصطناعي المتقدمة مع تدابير السلامة البشرية.