تنبيه سخرية: اكتشاف اقتباسات وهمية في أوراق مؤتمر NeurIPS المرموق للذكاء الاصطناعي

تنبيه سخرية اكتشاف اقتباسات وهمية في أوراق مؤتمر NeurIPS المرموق

بدأت شركة الكشف عن الذكاء الاصطناعي GPTZero بفحص جميع الأوراق الأربعة آلاف و841 التي تم قبولها في المؤتمر المرموق لأنظمة معالجة المعلومات العصبية (NeurIPS)، الذي أقيم الشهر الماضي في سان دييغو. وجدت الشركة 100 اقتباس وهمي عبر 51 ورقة أكدت أنها مزيفة، بحسب ما أخبرت الشركة موقع TechCrunch.

يعد قبول ورقة بحثية في NeurIPS إنجازًا يستحق الذكر في عالم الذكاء الاصطناعي. نظرًا لأن هؤلاء هم أبرز العقول في أبحاث الذكاء الاصطناعي، قد يفترض المرء أنهم سيستخدمون النماذج اللغوية الكبيرة للقيام بالمهمة المملة بشكل كارثي وهي كتابة الاقتباسات.

لذا، فإن هناك تحذيرات عديدة بشأن هذا الاكتشاف: 100 اقتباس وهمي مؤكد عبر 51 ورقة ليس له دلالة إحصائية. كل ورقة تحتوي على العشرات من الاقتباسات. لذا، من بين عشرات الآلاف من الاقتباسات، فإن هذا، إحصائيًا، لا يذكر.

ومن المهم أيضًا ملاحظة أن الاقتباس غير الدقيق لا يلغي بحث الورقة. كما أخبرت NeurIPS مجلة Fortune، التي كانت أول من أبلغ عن بحث GPTZero، “حتى لو كان 1.1% من الأوراق تحتوي على مرجع واحد أو أكثر غير صحيح بسبب استخدام النماذج اللغوية الكبيرة، فإن مضمون الأوراق نفسها [ليس] بالضرورة غير صالح.”

لكن بعد كل ذلك، فإن الاقتباس المزيف ليس بلا أهمية أيضًا. تفخر NeurIPS بـ “النشر الأكاديمي الصارم في التعلم الآلي والذكاء الاصطناعي”، كما تقول. وكل ورقة تخضع لمراجعة الأقران من قبل عدة أشخاص يتم توجيههم للإشارة إلى الوهميات.

تعتبر الاقتباسات أيضًا نوعًا من العملة للباحثين. يتم استخدامها كمقياس مهني لإظهار مدى تأثير عمل الباحث بين أقرانه. عندما تصنعها الذكاء الاصطناعي، فإن ذلك يقلل من قيمتها.

لا يمكن لأحد لوم المراجعين الأقران على عدم اكتشاف بعض الاقتباسات المزيفة التي ابتكرها الذكاء الاصطناعي نظرًا للحجم الكبير المعني. كما أن GPTZero سريع في الإشارة إلى هذا. كانت هدف العملية هو تقديم بيانات محددة عن كيفية تسلل الأخطاء الناتجة عن الذكاء الاصطناعي من خلال “تسونامي من التقديمات” الذي “جهد أنظمة مراجعة هذه المؤتمرات إلى نقطة الانهيار”، كما تقول الشركة في تقريرها. حتى أن GPTZero يشير إلى ورقة بحثية في مايو 2025 بعنوان “أزمة مراجعة الأقران في مؤتمرات الذكاء الاصطناعي” التي ناقشت المشكلة في المؤتمرات الكبرى، بما في ذلك NeurIPS.

حدث Techcrunch

سان فرانسيسكو
|
13-15 أكتوبر 2026

ومع ذلك، لماذا لم يتمكن الباحثون أنفسهم من التحقق من صحة عمل النموذج اللغوي الكبير من حيث الدقة؟ بالتأكيد يجب أن يعرفوا قائمة الأوراق التي استخدموها في عملهم.

ما يشير إليه كل ذلك هو نتيجة كبيرة وساخرة: إذا كان أكبر خبراء الذكاء الاصطناعي في العالم، مع سمعتهم على المحك، لا يستطيعون ضمان دقة استخدامهم للنماذج اللغوية الكبيرة في التفاصيل، فماذا يعني ذلك لبقية الناس؟


المصدر