من يقرر ما تقوله الذكاء الاصطناعي؟ كامبل براون، رئيس الأخبار السابق في ميتا، يشارك آراءه

قضت كامبل براون حياتها المهنية في追求 المعلومات الدقيقة، أولا كصحفية تلفزيونية مشهورة، ثم كرئيسة أخبار مخصصة أولى، و الوحيدة، في فيسبوك. الآن، مع مراقبة الذكاء الاصطناعي وهو يعيد تشكيل كيفية استهلاك الناس للمعلومات، ترى أن التاريخ يهدد بإعادة نفسه. هذه المرة، لن تنتظر أن يصلحها شخص آخر.

شركتها، Forum AI – التي ناقشتها مؤخرا مع تيم فيرنهوف من TechCrunch في أمسية StrictlyVC في سان فرانسيسكو – تقوم بتقييم كيفية أداء نماذج الأساس على ما تسميه “المواضيع ذات المخاطر العالية” – الجغرافيا السياسية، الصحة النفسية، المالية، التوظيف – مواضيع حيث “لا توجد إجابات واضحة بنعم أو لا، حيث الأمور غامضة ومعقدة وذات شقوق.”

الهدف هو العثور على أفضل الخبراء في العالم، وتجعلهم يقومون بتصميم المعايير، ثم تدريب قضاة الذكاء الاصطناعي لتقييم النماذج على نطاق واسع. بالنسبة لأعمال الجغرافيا السياسية في Forum AI، قامت براون بتجنيد نايل فيرغسون، وفاريد زكريا، ووزير الخارجية السابق أنطوني بلينكن، ورئيس مجلس النواب السابق كيفين مكارثي، وأني نويبريجر، التي قادت الأمن السيبراني في إدارة أوباما. الهدف هو الوصول إلى اتفاقية تقارب 90% مع هؤلاء الخبراء البشر، وهوThreshold تقول براون إن Forum AI تمكنت من الوصول إليه.

ترجع براون أصل Forum AI، التي تأسست قبل 17 شهرا في نيويورك، إلى لحظة معينة. “كنت في Meta عندما تم إصدار ChatGPT للجمهور لأول مرة،” تذكرت قائلة، “وأتذكر أنني أدركت بعد فترة قصيرة أن هذا سيكون القناة التي تتدفق من خلالها جميع المعلومات. وليس جيدا جدا.” جعلت التداعيات على أطفالها اللحظة تبدو وكأنها مسألة وجودية. “أطفالي سيكونون غبيين حقا إذا لم نكتشف كيفية إصلاح هذا،” تذكرت أنها فكرت.

ما أزعجها أكثر كان أن الدقة لم تبدو أولوية لأي شخص. شركات نماذج الأساس، كما قالت، “ترتكز بشدة على التشفير والرياضيات”، في حين أن الأخبار والمعلومات أصعب. لكن الأصعب، كما جادلت، لا يعني أنه اختياري.

بالفعل، عندما بدأت Forum AI في تقييم النماذج الرائدة، لم تكن النتائج مشجعة بالضبط. ذكرت أن Gemini يستخرج من مواقع الحزب الشيوعي الصيني “لقصص لا علاقة لها بالصين”، ولاحظت وجود تحيز سياسي يفضل اليسار عبر جميع النماذج تقريبًا. كما أن الإخفاقات الأكثر دقة منتشرة أيضًا، كما قالت، بما في ذلك فقدان السياق، وفقدان وجهات النظر، وتقديم حجج دون الاعتراف بها. “لا يزال لدينا طريق طويل لنقطعه،” قالت. “لكنني أعتقد أيضًا أن هناك بعض الحلول السهلة جدا التي ستتحسن النتائج بشكل كبير.”

قضت براون سنوات في فيسبوك تراقب ما يحدث عندما تقوم المنصة بتحسين شيء خاطئ. “فشلنا في الكثير من الأمور التي جربناها،” أخبرت فيرنهوف. البرنامج الذي أنشأته للتحقق من الحقائق لم يعد موجودًا. الدرس، حتى إذا كانت وسائل التواصل الاجتماعي قد تجاهلته، هو أن تحسين المشاركة كان سيئًا للمجتمع وترك العديد من الناس أقل اطلاعًا.

أملها هو أن يتمكن الذكاء الاصطناعي من كسر هذه الدورة. “الآن يمكن أن تسير الأمور في أي اتجاه،” قالت؛ يمكن أن تعطي الشركات المستخدمين ما يريدون، أو يمكن أن “تعطي الناس ما هو حقيقي وما هو صادق وما هو صحيح.” اعترفت أن النسخة المثالية من ذلك – تحسين الذكاء الاصطناعي للحصول على الحقيقة – قد تبدو ساذجة. لكنها تعتقد أن الشركات قد تكون الحليف غير المتوقع هنا. الأعمال التي تستخدم الذكاء الاصطناعي في قرارات الائتمان، والإقراض، والتأمين، والتوظيف تهتم بالمسؤولية، و “سيكونون يريدونك أن تحسن من أجل الحصول على الأمر الصحيح.”

هذا الطلب من الشركات هو أيضًا ما تراهن عليه Forum AI في أعمالها، على الرغم من أن تحويل الاهتمام بالامتثال إلى إيرادات مستمرة لا يزال يمثل تحديًا، خصوصًا بالنظر إلى أن الكثير من السوق الحالي لا يزال راضيًا عن التدقيقات القياسية والمعايير التي تعتبرها براون غير كافية.

قالت إن مشهد الامتثال هو “مزحة.” عندما أصدرت مدينة نيويورك أول قانون لتمييز التوظيف الذي يتطلب تدقيقات للذكاء الاصطناعي، وجدت مراقبة الدولة أكثر من نصف الحالات التي كانت لديها انتهاكات لم تُكتشف. يتطلب التقييم الحقيقي، كما قالت، خبرة في المجال للعمل من خلال ليس فقط السيناريوهات المعروفة ولكن الحالات الحدودية التي “يمكن أن تسبب لك مشاكل لا تفكر فيها الناس.” وهذه العملية تأخذ وقتا. “المتخصصون الأذكياء لن يكونوا كافين.”

براون – التي رفعت شركتها في الخريف الماضي 3 ملايين دولار بقيادة Lerer Hippeau – مؤهلة بشكل فريد لوصف الفجوة بين صورة الصناعة الخاصة بالذكاء الاصطناعي والواقع لمعظم المستخدمين. “تسمع من قادة الشركات الكبرى في التكنولوجيا، ‘هذه التكنولوجيا ستغير العالم،’ ‘ستجعلك عاطلا عن العمل،’ ‘ستعالج السرطان،'” قالت. “لكن بعد ذلك، بالنسبة لشخص عادي يستخدم فقط دردشة آلية لطرح أسئلة أساسية، لا يزال يحصل على الكثير من الأخطاء والإجابات الخاطئة.”

الثقة في الذكاء الاصطناعي في مستويات منخفضة بشكل استثنائي، وتعتقد أن هذا الشك، في كثير من الحالات، مبرر. “تحدث المحادثة نوعا ما في وادي السيليكون حول شيء واحد، ومحادثة مختلفة تمامًا تحدث بين المستهلكين.”

عند إجراء الشراء من خلال الروابط في مقالاتنا، قد نكسب عمولة صغيرة. هذا لا يؤثر على استقلاليتنا التحريرية.


المصدر