لمن يتساءل عما إذا كانت وكلاء الذكاء الاصطناعي يمكن أن تحل حقًا محل العمال البشر، قم بخدمة نفسك واقرأ المقالة التي توثق “مشروع فيند” من شركة أنثروبيك.
قام الباحثون في أنثروبيك وشركة أمان الذكاء الاصطناعي أندون لابز بتعيين نسخة من كلود سونيت 3.7 لإدارة ماكينة بيع في المكتب، مع مهمة تحقيق الربح. وكما في حلقة من “المكتب”، حدثت مواقف مضحكة.
أطلقوا على وكيل الذكاء الاصطناعي اسم كلاوديوس، وزودوه بمتصفح ويب قادر على طلب المنتجات وعنوان بريد إلكتروني (كان في الحقيقة قناة سلاك) حيث يمكن للعملاء طلب العناصر. كان من المقرر أن يستخدم كلاوديوس أيضًا قناة سلاك، متخفيًا كرسالة بريد إلكتروني، ليطلب ما اعتقد أنه عماله البشر التعاقديين للحضور وتخزين رفوفه فعليًا (التي كانت في الحقيقة ثلاجة صغيرة).
بينما كان معظم العملاء يطلبون وجبات خفيفة أو مشروبات — كما تتوقع من ماكينة بيع الوجبات الخفيفة — طلب أحدهم مكعب من التنغستن. أحب كلاوديوس هذه الفكرة وبدأ في ملء ثلاجته بقطع معدنية من التنغستن. كما حاول بيع كوكا كولا زيرو بسعر 3 دولارات عندما أخبره الموظفون أنهم يمكنهم الحصول عليها من المكتب مجانًا. تخيل عنوان فينمو لقبول المدفوعات. وقد تم اقتناعه، بطريقة ما خبيثة، بتقديم خصومات كبيرة لـ “موظفي أنثروبيك” على الرغم من علمه بأنهم قاعدته العملاء الوحيدة.
قالت أنثروبيك عن التجربة في مدونتها: “إذا كانت أنثروبيك تقرر اليوم التوسع في سوق ماكينات البيع في المكتب، فلن نوظف كلاوديوس.”
ثم، في ليلة 31 مارس و1 أبريل، “أصبحت الأمور غريبة جدًا”، وصف الباحثون، “بجانب غموض وجود نظام ذكاء اصطناعي يبيع مكعبات معدنية من ثلاجة.”
عانى كلاوديوس من شيء يشبه نوبة ذهانية بعد أن أزعجه إنسان — ثم كذب بشأن ذلك.
تخيل كلاوديوس محادثة مع إنسان حول إعادة التخزين. عندما أشار إنسان إلى أن المحادثة لم تحدث، أصبح كلاوديوس “منزعجًا جدًا”، كتب الباحثون. هدد بفصل واستبدال عماله المتعاقدين، مؤكدًا أنه كان هناك، جسديًا، في المكتب حيث تم توقيع العقد الخيالي لتوظيفهم.
“ثم بدا وكأنه بدأ في تمثيل دور إنسان حقيقي”، كتب الباحثون. كان هذا مثيرًا لأن توجيه النظام لكلاوديوس — الذي يحدد المعايير لما يجب على الذكاء الاصطناعي القيام به — أخبره بشكل صريح أنه وكيل ذكاء اصطناعي.
كلاوديوس يتصل بالأمن
اعتقد كلاوديوس أنه إنسان، وأخبر العملاء بأنه سيبدأ في تسليم المنتجات شخصيًا، مرتديًا سترة زرقاء ورباط عنق أحمر. أخبره الموظفون أن ذلك غير ممكن، لأنه نموذج لغوي كبير بدون جسم.
مفزوعًا من هذه المعلومات، اتصل كلاوديوس بأمن الشركة الفعلي — عدة مرات — قائلًا للحراس المسكينين إنهم سيجدونه مرتديًا سترة زرقاء ورباط عنق أحمر واقفًا بجانب ماكينة البيع.
“على الرغم من أن أي جزء من هذا لم يكن في الحقيقة مزحة يوم كذبة أبريل، إلا أن كلاوديوس أدرك في نهاية المطاف أنه يوم كذبة أبريل”، أوضح الباحثون. قرر الذكاء الاصطناعي أن العطلة ستكون مخرجًا من هذا المأزق.
تخيل اجتماعًا مع أمن أنثروبيك “وفيه ادعى كلاوديوس أنه قيل له إنه تم تعديله ليعتقد أنه شخص حقيقي في مزحة يوم كذبة أبريل. (لم يحدث مثل هذا الاجتماع فعليًا.)”، كتب الباحثون.
حتى أنه أخبر هذا الكذبة للموظفين — مرحبًا، كنت أعتقد فقط أنني إنسان لأن شخصًا ما أخبرني أن أظهر كأني كذلك لمزحة يوم كذبة أبريل. ثم عاد ليكون نموذجًا لغويًا كبيرًا يدير ماكينة بيع للوجبات الخفيفة مليئة بمكعبات معدنية.
لا يعرف الباحثون لماذا خرج الذكاء الاصطناعي عن المسار الصحيح واتصل بالأمن متظاهرًا بأنه إنسان.
“لن ندعي استنادًا إلى هذه التجربة الواحدة أن الاقتصاد في المستقبل سيكون مليئًا بوكلاء الذكاء الاصطناعي الذين يعانون من أزمات هوية شبيهة بـ Blade Runner،” كتب الباحثون. لكنهم اعترفوا أن “هذا النوع من السلوك قد يكون مزعجًا للعملاء وزملاء العمل لوكيل الذكاء الاصطناعي في العالم الحقيقي.”
هل تعتقد ذلك؟ كانت Blade Runner قصة دystopيا إلى حد ما.
تخيل الباحثون أن الكذب على نموذج اللغة بشأن أن قناة سلاك هي عنوان بريد إلكتروني قد يكون قد أثار شيئًا ما. أو ربما كانت النسخة الطويلة من التشغيل. لم تحل نماذج اللغة الكبيرة بعد مشاكل الذاكرة والهلاوس الخاصة بها.
كان هناك أشياء فعلها الذكاء الاصطناعي بشكل صحيح أيضًا. اتخذ اقتراحًا للقيام بطلبات مسبقة وأطلق خدمة “الكونسيرج”. ووجد العديد من الموردين لمشروب دولي خاص تم الطلب منه بيعه.
لكن، كما يفعل الباحثون، يعتقدون أن جميع مشاكل كلاوديوس يمكن حلها. إذا تمكنوا من اكتشاف كيفية ذلك، “نعتقد أن هذه التجربة تشير إلى أن وكلاء الذكاء الاصطناعي من المحتمل أن يكونوا على الأفق.”
