نظام مدعوم بالذكاء الاصطناعي قد يتولى قريبًا مسؤولية تقييم الأضرار المحتملة ومخاطر الخصوصية لنحو 90% من التحديثات التي تجرى على تطبيقات ميتا مثل إنستغرام وواتساب، وفقًا لوثائق داخلية يبدو أن NPR اطلعت عليها.
تقول NPR إن اتفاقًا بين فيسبوك (الآن ميتا) ولجنة التجارة الفيدرالية عام 2012 يتطلب من الشركة إجراء مراجعات للخصوصية لمنتجاتها، لتقييم مخاطر أي تحديثات محتملة. حتى الآن، كانت تلك المراجعات تُجرى بشكل كبير على يد مقيمين بشريين.
بموجب النظام الجديد، يبدو أن ميتا قالت إن فرق المنتجات ستُطلب منها ملء استبيان حول عملها، وبعد ذلك ستحصل عادةً على “قرار سريع” مع المخاطر التي حددها الذكاء الاصطناعي، بالإضافة إلى المتطلبات التي يجب أن يفي بها تحديث أو ميزة قبل إطلاقها.
من شأن هذه المقاربة التي تركز على الذكاء الاصطناعي أن تسمح لميتا بتحديث منتجاتها بشكل أسرع، لكن أحد المسؤولين السابقين أخبر NPR أنها أيضًا تخلق “مخاطر أعلى”، حيث إن “التداعيات السلبية لتغييرات المنتجات أقل احتمالاً أن يتم منعها قبل أن تبدأ في التسبب بمشاكل في العالم.”
في بيان، بدا أن ميتا تؤكد أنها تغير نظام مراجعتها، لكنها أصرت على أنه سيتم أتمتة “القرارات ذات المخاطر المنخفضة” فقط، بينما سيظل “الخبراء البشر” يُستخدمون لفحص “القضايا الجديدة والمعقدة.”