قام مستخدم في ريديت يدعي أنه مُخبر من تطبيق توصيل الطعام بالكشف عن نفسه كمزيف. كتب المستخدم منشورًا فيروسياً يدعي أن الشركة التي كان يعمل بها استغلت سائقيها ومستخدميها.
“أنتم دائمًا تشكون من أن الخوارزميات مُزورة ضدكم، لكن الواقع في الحقيقة أكثر كآبة بكثير من نظريات المؤامرة”، كتب المُخبر المزعوم.
زعُم أنه كان في حالة سكر في المكتبة ليستخدم الواي فاي العام، حيث كان يكتب هذا النص المطول حول كيفية استغلال الشركة للثغرات القانونية لسرقة إكراميات وأجور السائقين بدون عقاب.
كانت هذه الادعاءات، للأسف، قابلة للتصديق – حيث تم مقاضاة DoorDash فعلاً لسرقة الإكراميات من السائقين، مما أدى إلى تسوية بقيمة 16.75 مليون دولار. لكن في هذه الحالة، كان صاحب المنشور قد اختلق قصته.
الناس يكذبون على الإنترنت طوال الوقت. لكن ليس من الشائع أن تصل مثل هذه المنشورات إلى الصفحة الرئيسية في ريديت، وتحصل على أكثر من 87,000 تصويت إيجابي، وتنتشر على منصات أخرى مثل X، حيث حصلت على 208,000 إعجاب و36.8 مليون ظهور.
كتب كاسي نيوتن، الصحفي وراء منصة Platformer، أنه اتصل بصاحب المنشور على ريديت، الذي اتصل به بعد ذلك عبر Signal. شارك مستخدم ريديت ما بدا أنه صورة لبطاقة موظف UberEats الخاصة به، بالإضافة إلى وثيقة داخلية مكونة من ثمانية عشر صفحة توضح استخدام الشركة للذكاء الاصطناعي لتحديد “درجة اليأس” للسائقين الأفراد. لكن عندما حاول نيوتن التحقق من صحة حساب المُخبر، أدرك أنه تم استدراجه إلى خدعة باستخدام الذكاء الاصطناعي.
“في معظم مسيرتي المهنية حتى هذه النقطة، كانت الوثيقة التي شاركها معي المُخبر ستبدو موثوقة للغاية، جزئيًا لأنها كانت ستستغرق وقتًا طويلاً لجمعها”، كتب نيوتن. “من الذي سيأخذ الوقت لجمع وثيقة فنية مفصلة مكونة من 18 صفحة حول ديناميكيات السوق لمجرد إزعاج صحفي؟ من الذي سيبذل الجهد لإنشاء بطاقة مزيفة؟”
حدث Techcrunch
سان فرانسيسكو
|
13-15 أكتوبر، 2026
لطالما وُجد أشرار يسعون لخداع الصحفيين، لكن انتشار أدوات الذكاء الاصطناعي جعل التحقق من الحقائق يتطلب المزيد من الدقة.
غالبًا ما تفشل نماذج الذكاء الاصطناعي التوليدية في الكشف عما إذا كانت الصورة أو الفيديو اصطناعيين، مما يصعّب تحديد ما إذا كان المحتوى حقيقيًا. في هذه الحالة، تمكن نيوتن من استخدام أداة جوجل Gemini لتأكيد أن الصورة قد تم إنشاؤها باستخدام أداة الذكاء الاصطناعي، بفضل علامة مائية SynthID من جوجل، التي يمكن أن تتحمل القص والضغط والترشيح، وغيرها من المحاولات لتعديل الصورة.
ماكس سبيرو – مؤسس Pangram Labs، الشركة التي تصنع أداة للكشف عن النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي – يعمل مباشرة مع مشكلة تمييز المحتوى الحقيقي والمزيف.
“المحتوى السيئ على الإنترنت قد ازداد سوءًا، وأعتقد أن جزءًا من هذا يعود إلى الاستخدام المتزايد لنماذج اللغة الكبيرة، ولكن هناك عوامل أخرى أيضًا”، قال ماكس سبيرو، مؤسس Pangram Labs، لـ TechCrunch. “هناك شركات تحقق ملايين الدولارات من الإيرادات يمكنها الدفع مقابل ‘المشاركة العضوية’ على ريديت، والتي ليست سوى أنها ستحاول أن تصبح فيروسية على ريديت من خلال منشورات تم إنشاؤها بواسطة الذكاء الاصطناعي تذكر اسم علامتك التجارية.”
يمكن أن تساعد أدوات مثل Pangram في تحديد ما إذا كان النص تم إنشاؤه بواسطة الذكاء الاصطناعي، لكن خاصة عندما يتعلق الأمر بالمحتوى المتعدد الوسائط، ليست هذه الأدوات دائمًا موثوقة – وحتى إذا تم إثبات أن المنشور الاصطناعي مزيف، فقد يكون قد أصبح فيروسياً بالفعل قبل أن يتم دحضه. لذا في الوقت الحالي، نبقى نتصفح وسائل التواصل الاجتماعي مثل المحققين، نشك في ما إذا كان ما نراه حقيقيًا.
مثال على ذلك: عندما أخبرت محررًا أنني أريد الكتابة عن “خدعة توصيل الطعام بواسطة الذكاء الاصطناعي التي أصبحت فيروسية على ريديت في نهاية هذا الأسبوع”، ظنت أنني أتحدث عن شيء آخر. نعم – كان هناك أكثر من “خدعة توصيل الطعام بواسطة الذكاء الاصطناعي الفيروسية على ريديت في نهاية هذا الأسبوع”.
