تجري X تجربة برنامج يتيح لروبوتات الدردشة الذكية إنشاء ملاحظات مجتمعية

ستختبر المنصة الاجتماعية X ميزة تسمح لروبوتات الدردشة المدعومة بالذكاء الاصطناعي بإنشاء ملاحظات المجتمعات.

ملاحظات المجتمعات هي ميزة ظهرت في عصر تويتر، وقام إيلون ماسك بتوسيعها تحت ملكيته للخدمة، التي تُسمى الآن X. يمكن للمستخدمين الذين يشاركون في برنامج التحقق من الحقائق هذا إضافة تعليقات تضيف سياقًا إلى منشورات معينة، والتي يتم التحقق منها بعد ذلك من قبل مستخدمين آخرين قبل أن تظهر مرتبطة بالمنشور. قد تظهر ملاحظة مجتمع، على سبيل المثال، على منشور لفيديو تم إنشاؤه بالذكاء الاصطناعي والذي لا يتضح فيه أصله الصناعي، أو كملحق لمنشور مضلل من سياسي.

تصبح الملاحظات عامة عندما تحقق إجماعًا بين المجموعات التي كانت تختلف تاريخيًا حول التقييمات السابقة.

لقد كانت ملاحظات المجتمعات ناجحة بما فيه الكفاية على X لتحفيز ميتا، تيك توك، ويوتيوب لمتابعة مبادرات مماثلة – حيث ألغت ميتا برامج التحقق من الحقائق الخاصة بها من طرف ثالث تمامًا مقابل هذا العمل المجتمعي منخفض التكلفة.

لكن يبقى أن نرى ما إذا كان استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي كمدققين للحقائق سيثبت كونه مفيدًا أو ضارًا.

يمكن إنشاء هذه الملاحظات المدعومة بالذكاء الاصطناعي باستخدام Grok الخاص بـ X أو من خلال استخدام أدوات ذكاء اصطناعي أخرى وربطها بـ X عبر واجهة برمجة التطبيقات (API). أي ملاحظة يقدمها الذكاء الاصطناعي ستُعامل بنفس طريقة التعامل مع ملاحظة يقدمها إنسان، مما يعني أنها ستخضع لنفس عملية الفحص لتعزيز الدقة.

يبدو أن استخدام الذكاء الاصطناعي في التحقق من الحقائق مشكوك فيه، نظرًا لمدى شيوع هلاوس الذكاء الاصطناعي، أو اختراعه لسياقات ليست قائمة في الواقع.

2506
حقوق الصورة: بحث من ملاحظات مجتمع X (يفتح في نافذة جديدة)

وفقًا لورقة نُشرت هذا الأسبوع من قبل الباحثين الذين يعملون على ملاحظات مجتمع X، يُوصى بأن يعمل البشر والنماذج اللغوية الكبيرة معًا. يمكن أن يعزز التعليق البشري من توليد ملاحظات الذكاء الاصطناعي من خلال التعلم التعزيزي، مع بقاء مصححي الملاحظات البشرية كآخر فحص قبل نشر الملاحظات.

“الهدف ليس إنشاء مساعد ذكي يخبر المستخدمين بما يجب عليهم التفكير، بل بناء نظام تمكين يساعد البشر على التفكير بشكل أكثر نقدية وفهم العالم بشكل أفضل”، كما تقول الورقة. “يمكن للنماذج اللغوية الكبيرة والبشر العمل معًا في حلقة فاضلة.”

حتى مع وجود فحوص بشرية، لا يزال هناك خطر من الاعتماد بشكل مفرط على الذكاء الاصطناعي، خاصة وأن المستخدمين سيكونون قادرين على إدماج النماذج اللغوية الكبيرة من جهات خارجية. على سبيل المثال، واجه ChatGPT من OpenAI مؤخرًا مشكلات مع نموذج كان متزلفًا بشكل مفرط. إذا كانت النموذج اللغوي الكبير يفضل “المساعدة” على إكمال عملية التحقق من الحقائق بدقة، فإن التعليقات التي تم إنشاؤها بواسطة الذكاء الاصطناعي قد تنتهي بها الأمر إلى أن تكون غير دقيقة على الإطلاق.

هناك أيضًا قلق من أن المتقييمين البشريين سيثقلون بسبب كمية التعليقات التي تم إنشاؤها بالذكاء الاصطناعي، مما يقلل من دافعهم لإكمال هذا العمل التطوعي بشكل كاف.

لا ينبغي على المستخدمين توقع رؤية ملاحظات المجتمعات المدعومة بالذكاء الاصطناعي بعد — تخطط X لاختبار هذه المساهمات الذكية لبضعة أسابيع قبل طرحها بشكل أوسع إذا كانت ناجحة.


المصدر