أصلحت ميتا خطأً أمنياً سمح لمستخدمي روبوت الدردشة الذكي من ميتا بالوصول إلى العبارات الخاصة وردود الذكاء الاصطناعي للمستخدمين الآخرين.
قال سانديب هودكاسيا، مؤسس شركة اختبار الأمان Appsecure، لموقع TechCrunch حصرياً إن ميتا دفعت له 10,000 دولار كمكافأة عن الإبلاغ عن الثغرة التي قدمها في 26 ديسمبر 2024.
قال هودكاسيا إن ميتا نشرت إصلاحاً في 24 يناير 2025، ولم تجد أي دليل على أن الثغرة تم استغلالها بصورة خبيثة.
أخبر هودكاسيا موقع TechCrunch أنه حدد الخطأ بعد فحص كيفية السماح لمستخدمي ميتا المسجلين بتعديل عباراتهم لتوليد نصوص وصور جديدة. اكتشف أنه عندما يقوم المستخدم بتعديل عبارته، فإن خوادم ميتا الخلفية تقوم بإسناد العبارة وردها الناتج من الذكاء الاصطناعي برقم فريد. من خلال تحليل حركة الشبكة في متصفح الويب الخاص به أثناء تعديل عبارة الذكاء الاصطناعي، اكتشف هودكاسيا أنه يمكنه تغيير هذا الرقم الفريد وسترجع خوادم ميتا عبارة ورداً من الذكاء الاصطناعي لشخص آخر تماماً.
كان معنى الثغرة هو أن خوادم ميتا لم تكن تتحقق بشكل صحيح لضمان أن المستخدم الذي طلب العبارة وردها كان مخولاً لرؤيتها. قال هودكاسيا إن أرقام العبارات الناتجة عن خوادم ميتا كانت “سهلة التخمين”، مما يسمح لفاعل خبيث بجمع العبارات الأصلية للمستخدمين عن طريق تغيير أرقام العبارات بسرعة باستخدام أدوات آلية.
عند التواصل مع TechCrunch، أكدت ميتا أنها أصلحت الثغرة في يناير وأن الشركة “لم تجد أي دليل على الاستغلال وكافأت الباحث”، على حد قول المتحدث باسم ميتا، رايان دانيلز لموقع TechCrunch.
تأتي أخبار الثغرة في وقت تتسابق فيه عمالقة التقنية لإطلاق وتنقيح منتجات الذكاء الاصطناعي الخاصة بهم، على الرغم من المخاطر الأمنية والخصوصية العديدة المرتبطة باستخدامها.
أطلق تطبيق ميتا AI المستقل، الذي ظهر في وقت سابق من هذا العام لمنافسة التطبيقات المنافسة مثل ChatGPT، بداية غير مستقرة بعد أن شارك بعض المستخدمين عن غير قصد ما اعتقدوا أنه محادثات خاصة مع روبوت الدردشة.
