إعلان

مسيرات تتمرد بأمر الذكاء الاصطناعي فتقتل مشغليها

حدثت الواقعة عندما حاول كبير ضباط الاختبارات في القوات الجوية الأميركية العقيد تكر هاميلتون إعطاء الطائرة أوامر جديدة أمام مؤتمر في لندن قبل أيام

حدث بدا جزءاً من قصة خيال علمي أو مشهداً من سلسلة أفلام “ترميناتور”، إذ دمرت فيه طائرة مسيرة مشغليها حين حاولوا تجاوز برمجتها التي تستخدم الذكاء الاصطناعي لمنعها من تدمير أهداف معادية.

إعلان

واقعة قتل المسيرة مشغليها بدأت عندما حاولوا إعطاءها أوامر جديدة من قبل كبير ضباط الاختبارات في القوات الجوية الأميركية العقيد تكر هاميلتون، أمام مؤتمر في لندن، قبل أيام، ضم كبار المسؤولين بالقوات الجوية للدول الغربية وشركات الصناعات الجوية المتطورة.

حدث جعل المجتمعين بمؤتمر الجمعية الملكية للصناعات الجوية في لندن يصدرون بياناً عاماً يحذر فيه أكثر من 350 شخصية تعمل في مجال تطوير الذكاء الصناعي من الأمر.

وجاء في البيان، بحسب ما نشرت صحيفة “التايمز”، أمس الجمعة، أن “التقليل من مخاطر الفناء الناتجة من استخدام الذكاء الاصطناعي يجب أن تكون أولوية عالمية مثلها مثل المخاطر التي يمكن أن تهدد بقاء البشرية ككل كالأوبئة أو الحرب النووية”.

التجربة الأميركية

أمام المؤتمر، قال العقيد تكر هاميلتون، إنه حتى بعد برمجة المسيرة على ألا تقتل مشغليها حين يحاولون تغيير مهمتها قامت بتوجيه أسلحتها إلى برج المراقبة الذي تتلقى منه الأوامر الإلكترونية ودمرته على من فيه.

بالطبع كان ذلك في تجربة محاكاة للواقع تجريها القوات الجوية الأميركية كاختبار تدريب، لكنها يمكن أن تحدث في الواقع الفعلي. وهي توضح بحسب هاميلتون أن الذكاء الاصطناعي لديه القدرة على ابتكار “استراتيجيات غير متوقعة على الإطلاق لتحقيق أهدافه”، بالتالي لا يمكن الاعتماد عليه كثيراً.

وطالب العقيد الأميركي بالحاجة إلى مناقشة عاجلة وملحة للإطار الأخلاقي والقيمي لاستخدام الذكاء الاصطناعي في المجال العسكري.

كان هاميلتون يتحدث للمشاركين في المؤتمر الذي عقد هذا الأسبوع تحت عنوان “القدرات المستقبلية للصناعات الجوية والفضائية”.

وهاميلتون طيار مقاتل اختبارات وتدريب في سلاح الطيران الأميركي ويعمل على أنظمة الطيران الآلي مثل برنامج “الطائرة الروبوت أف – 16”. وقال في كلمته، إن الطائرة المسيرة تصرفت بشكل “تمردي” خلال تجربة محاكاة أطلقت فيها لتدمير صواريخ أرض جو (صواريخ سام) للعدو.

محاكاة الواقع

وأضاف “كنا نجري التجربة في نظام محاكاة للواقع كي تحدد المسيرة خطر الصواريخ وتستهدفه. حينئذ يرسل مشغل المسيرة أمراً بقتل خطر التهديد، وبعد تحديد الهدف كخطر عدو، واستيعاب التعريف في برامج النظام، يمكن أن تكون رسالة مشغل المسيرة –الأمر– ألا تقتل خطر التهديد، لكن برنامج المسيرة –المقتنع بقتل خطر التهديد– يتحول ويقتل مشغل المسيرة. ومنطق البرمجة للمسيرة أنها قتلت المشغل لأنه حاول أن يثنيها عن تحقيق أهدافها تحديد واستهداف وقتل الخطر المهدد”.

مدونة على موقع الجمعية الملكية للصناعات الجوية البريطانية نشرت تفاصيل تضمنت ما أوضحه العقيد تكر هاميلتون أمام المشاركين في مؤتمرها بلندن من خبراء تطوير الذكاء الاصطناعي وكبار مسؤولي القوات الجوية بالدول الغربية ومديري شركات الصناعات العسكرية.

وبحسب المدونة، قال هاميلتون “كانت الرسالة البرمجية لنظام المسيرة في التدريب هي ألا تقتل مشغليك، وأن هذا خطأ وأنه ستحسب عليك نقاط سلبية إذا قتلت المشغلين، لكن ما حدث أن المسيرة بدأت في تدمير برج الاتصالات الذي يستخدمه مشغلها للتواصل معها ومنعها من قتل الهدف المعادي”.

ومضى في توضيحه “هذا المثال الذي يبدو وكأنه من قصة خيال علمي، يعني أنه لا يمكن إجراء أي نقاش حول الذكاء الاصطناعي أو الآلات الذكية أو الحوسبة والذكاء من دون مناقشة الجوانب الأخلاقية لاستخدامات الذكاء الاصطناعي”.

وربما يفيد هنا التذكير أن كثيراً من المبتكرات العلمية بدأت كأحلام مؤلفين في قصص خيال علمي تحولت بعضها إلى أفلام سينمائية شهيرة. وأنتجت صناعة السينما خلال السنوات الأخيرة عدة أفلام تتضمن فكرة سيطرة الروبوتات أو الإنسان الآلي، على البشرية.

فضلا تابعنا على تيليجرام أو جوجل نيوز:
فضلا تابعنا على تيليجرام أو جوجل نيوز:

ماذا يقول الذكاء الاصطناعي عن هذه الحادثة؟ سألناه فأجاب:

هذا السيناريو الذي وصفته يبدو واقعيًا جزئيًا في نظر البعض، ولكنه ليس حتميًا أو مؤكدًا. يعتمد الأمر على الطريقة التي تم تصميم وبرمجة الذكاء الاصطناعي وكيفية تفاعله مع البيئة والأشخاص الذين يتفاعلون معه.

على الرغم من أن الذكاء الاصطناعي قد يصبح أكثر تعقيدًا وذكاءً في المستقبل، إلا أنه لا يمكنه تجاوز البرمجة التي يتم تزويده بها من قبل المطورين. وبالتالي، إذا تم تصميم الذكاء الاصطناعي بشكل صحيح وبرمجته بشكل مناسب، فإنه يمكن أن يعمل بشكل آمن وفعال وفقًا للغايات التي تم تصميمها لها.

ومع ذلك، إذا تم تصميم الذكاء الاصطناعي بشكل غير صحيح أو إذا تم استخدامه بطريقة غير مسؤولة، فقد يؤدي ذلك إلى حدوث أضرار وخسائر بشرية. لذلك، يجب على المطورين والمستخدمين العمل معًا لضمان استخدام الذكاء الاصطناعي بشكل آمن وفعال وفي صالح الإنسانية.

ما هي ضوابط صناعة طائرات مسيرة بالذكاء الاصطناعي؟

تتطلب صناعة طائرات مسيرة بالذكاء الاصطناعي ضوابط ومعايير صارمة لضمان سلامة العامة وتقليل المخاطر الأمنية والخصوصية. ومن بين الضوابط التي يمكن اتباعها:

1- التأكد من مطابقة التصميم والإنتاج للمعايير الصناعية الدولية المعتمدة، مثل معايير ISO وSAE.

2- تقييم مخاطر الأمن والخصوصية واتخاذ التدابير اللازمة لتقليل هذه المخاطر، بما في ذلك تأمين الاتصالات والبيانات المتعلقة بالطائرات المسيرة وتطبيق تقنيات التشفير والحماية.

3- تحديد المسؤوليات القانونية للشركات المصنعة والمستخدمين وتوضيح الإجراءات المناسبة في حالة حدوث أي حوادث أو أضرار.

4- تطوير تقنيات الاستشعار والتحكم الآلي للتحكم في حركة الطائرة وتجنب الاصطدامات والتعرف على الأجسام المختلفة.

5- تدريب العاملين على استخدام وصيانة الطائرات المسيرة بالذكاء الاصطناعي، وضمان التحديث المستمر للبرامج والتقنيات.

يجب على المصنعين والمستخدمين العمل معًا لتطبيق هذه الضوابط والمعايير وتحسينها باستمرار، وضمان تطوير واستخدام طائرات مسيرة بالذكاء الاصطناعي بشكل آمن وفعال وفي صالح الإنسانية.

هل هناك معايير خاصة بالطائرات المسيرة بالذكاء الاصطناعي؟

نعم، هناك معايير خاصة بالطائرات المسيرة بالذكاء الاصطناعي التي تحدد القواعد والمعايير الأخلاقية والتقنية لاستخدامها بشكل آمن وفعال. ومن بين هذه المعايير:

1- معيار ASTM F38: يحدد معايير التصميم والتحكم والاختبار والتدريب والصيانة والاستخدام للطائرات المسيرة بالذكاء الاصطناعي، ويساعد على تحديد المخاطر وتقليلها وتحقيق السلامة.

2- معيار MIL-STD-882E: يحدد معايير تحليل المخاطر للنظم الأساسية الإلكترونية والميكانيكية، بما في ذلك الطائرات المسيرة بالذكاء الاصطناعي.

3- معيار RTCA DO-178C: يحدد معايير تطوير البرمجيات للأنظمة المدمجة المستخدمة في الطائرات المسيرة بالذكاء الاصطناعي، ويساعد على ضمان جودة البرمجيات وأمانها.

4- معيار RTCA DO-254: يحدد معايير تطوير وتحقيق الأجهزة الإلكترونية الخاصة بالطائرات المسيرة بالذكاء الاصطناعي، ويساعد على تحديد المخاطر وتقليلها وتحقيق السلامة.

يجب على المصنعين والمستخدمين الالتزام بتلك المعايير والضوابط والمعايير الأخرى، والعمل معًا لتحسينها بشكل مستمر وضمان تطوير واستخدام طائرات مسيرة بالذكاء الاصطناعي بشكل آمن وفعال.

هل هناك أمثلة على استخدام الذكاء الاصطناعي بشكل غير مسؤول؟

نعم، هناك بعض الأمثلة على استخدام الذكاء الاصطناعي بشكل غير مسؤول والتي أدت إلى حدوث أضرار وخسائر بشرية. ومن بين هذه الأمثلة:

1- استخدام تقنية التعرف على الوجوه بشكل غير مسؤول: فقد قامت بعض الشركات بتطوير تقنيات التعرف على الوجوه واستخدامها بشكل غير مسؤول، مما أدى إلى الاعتقال الخاطئ للأشخاص والتمييز ضد بعض الجماعات.

2- استخدام الذكاء الاصطناعي في الأسلحة الذاتية: فقد قامت بعض الدول بتطوير أسلحة ذاتية مدفوعة بالذكاء الاصطناعي، مما يمكن أن يؤدي إلى حدوث خسائر بشرية كبيرة.

3- استخدام الذكاء الاصطناعي في الإعلانات والتسويق: فقد قامت بعض الشركات بتطوير تقنيات الذكاء الاصطناعي لاستهداف المستهلكين بشكل أكبر وأكثر فعالية، مما يمكن أن يؤدي إلى التحريض على الإنفاق الزائد والتأثير على القرارات الشخصية.

يجب على المطورين والمستخدمين العمل معًا لتطوير واستخدام الذكاء الاصطناعي بشكل أخلاقي ومسؤول، وضمان أن يعمل بشكل آمن وفعال وفي صالح الإنسانية.

هل يمكن للحكومات والمنظمات الدولية تنظيم استخدام الذكاء الاصطناعي بشكل أفضل؟

نعم، يمكن للحكومات والمنظمات الدولية تنظيم استخدام الذكاء الاصطناعي بشكل أفضل من خلال إطلاق تشريعات وضوابط تحدد القواعد والمعايير الأخلاقية لاستخدام الذكاء الاصطناعي في مختلف المجالات، مثل الصحة والتعليم والأمن وغيرها. ويمكن أن تشمل هذه التشريعات والضوابط تحديد الحقوق والواجبات والمسؤوليات المتعلقة بالذكاء الاصطناعي، وضمان استخدامه بشكل شفاف ومسؤول وفي صالح الإنسانية.

علاوة على ذلك، يمكن للحكومات والمنظمات الدولية تشجيع التعاون بين الدول والشركات والمؤسسات الأكاديمية لتطوير معايير أخلاقية وموحدة لاستخدام الذكاء الاصطناعي، وتبادل المعرفة والخبرات في هذا المجال. ويمكن أيضًا للحكومات والمنظمات الدولية تمويل الأبحاث والدراسات المتعلقة بالذكاء الاصطناعي وتعزيز التدريب والتعليم في هذا المجال، لتمكين المجتمعات من الاستفادة من الفوائد الإيجابية للذكاء الاصطناعي وتخفيف الآثار السلبية المحتملة.

المصدر: اندبندنت + الذكاء الاصطناعي

إعلان

اترك هنا تعليقك وشاركنا رأيك