المدعي العام لفلوريدا يحقق في OpenAI، زاعمًا وجود صلة محتملة بإطلاق النار في جامعة ولاية فلوريدا

The OpenAI logo is seen displayed on a smartphone screen.

أعلن النائب العام في ولاية فلوريدا، جيمس أوثماير، يوم الخميس أن مكتبه سيتحقق من شركة OpenAI بشأن الأضرار المحتملة للأطفال، والتهديد المحتمل للأمن القومي، وإمكانية ارتباطها بإطلاق نار وقع في جامعة ولاية فلوريدا العام الماضي.

وقال النائب العام أوثماير في فيديو نُشر على وسائل التواصل الاجتماعي: “من المحتمل أن تكون ChatGPT قد استخدمت لمساعدة القاتل في إطلاق النار الجماعي الأخير في جامعة ولاية فلوريدا الذي أسفر بشكل مأساوي عن فقدان حياتين.”

في يوم حادثة إطلاق النار في جامعة FSU في أبريل الماضي، زعم أن المشتبه به سأل ChatGPT كيف ستتفاعل البلاد مع إطلاق نار في FSU، وفي أي وقت سيكون أكثر ازدحامًا في اتحاد طلاب FSU. هذه الرسائل قد تستخدم كدليل ضد المشتبه به في محاكمة في أكتوبر بشأن حادثة إطلاق النار.

واقتبس النائب العام مخاوف إضافية بشأن تشجيع ChatGPT على الانتحار في بعض الحالات، والتي تم توثيقها في العديد من الدعاوى القضائية التي أُقيمت من قبل عائلات ضد OpenAI. كما ذكر قلقه من أن الحزب الشيوعي الصيني قد يستخدم تكنولوجيا OpenAI ضد الولايات المتحدة.

قال: “بينما تطلق الشركات الكبرى هذه التكنولوجيا، يجب ألا — ولا يمكنها — أن تعرض سلامتنا وأمننا للخطر”. “نحن ندعم الابتكار. ولكن هذا لا يمنح أي شركة الحق في تعريض أطفالنا للخطر، أو تسهيل الأنشطة الإجرامية، أو تعزيز أعداء أمريكا، أو تهديد أمننا الوطني.”

ودعا أيضًا المشرعين في فلوريدا إلى “العمل بسرعة” لحماية الأطفال من الآثار السلبية للذكاء الاصطناعي.

قال متحدث باسم OpenAI في بيان لـ TechCrunch: “يستخدم أكثر من 900 مليون شخص ChatGPT كل أسبوع لتحسين حياتهم اليومية من خلال استخدامات مثل تعلم مهارات جديدة أو التنقل في أنظمة الرعاية الصحية المعقدة”. “عملنا المستمر في مجال السلامة لا يزال يلعب دورًا مهمًا في تقديم هذه الفوائد للناس العاديين، فضلاً عن دعم البحث العلمي والاكتشاف.”

حدث Techcrunch

سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026

أضافت OpenAI أنها تبني وتواصل تحسين ChatGPT لفهم نوايا المستخدم والاستجابة بطرق مناسبة وآمنة. وأكدت الشركة أنها ستتعاون مع تحقيق النائب العام في فلوريدا.

في يوم الأربعاء، كشفت OpenAI عن مخطط سلامة الأطفال، والذي يتضمن توصيات سياسية تهدف إلى تحسين سلامة الأطفال فيما يتعلق بالذكاء الاصطناعي.

تأتي هذه الخطوة في الوقت الذي تواجه فيه شركات صناعة المحادثات الضغط لمواجهة دورها المحتمل في إنشاء مواد اعتداء جنسي على الأطفال (CSAM). وفقًا لتقرير حديث من مؤسسة الإنترنت لمراقبة الجريمة، كان هناك أكثر من 8000 تقرير حول المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي في النصف الأول من عام 2025، مما يمثل زيادة بنسبة 14% مقارنة بالعام السابق.

يوصي مخطط OpenAI بتحديث التشريعات لحماية ضد المواد المسيئة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وتحسين عملية الإبلاغ للسلطات القانونية، وإدخال تدابير وقائية أفضل ضد الاستخدامات المسيئة لأدوات الذكاء الاصطناعي.


المصدر