رئيس الذكاء الاصطناعي في مايكروسوفت يقول إن دراسة وعي الذكاء الاصطناعي “خطيرة”

رئيس الذكاء الاصطناعي في مايكروسوفت يقول إن دراسة وعي الذكاء

يمكن لنماذج الذكاء الاصطناعي الاستجابة للنصوص والصوت والفيديو بطرق تخدع الناس أحيانًا للاعتقاد أن إنسانًا يقف وراء لوحة المفاتيح، لكن ذلك لا يعني بالفعل أنها واعية. ليست كأن ChatGPT يشعر بالحزن أثناء إعداد إقرارات الضرائب الخاصة بي… صحيح؟

حسنًا، عدد متزايد من باحثي الذكاء الاصطناعي في مختبرات مثل Anthropic يتساءلون متى – إن حدث – قد تطور نماذج الذكاء الاصطناعي تجارب ذاتية مماثلة للكائنات الحية، وإذا حدث ذلك، فما الحقوق التي ينبغي أن تتمتع بها؟

النقاش حول ما إذا كانت نماذج الذكاء الاصطناعي قد تكون واعية في يوم من الأيام – وتستحق الحقوق – يقسم قادة التكنولوجيا في وادي السيليكون. في وادي السيليكون، أصبحت هذه المجال الناشئ معروفة باسم “رفاهية الذكاء الاصطناعي”، وإذا كنت تعتقد أن الأمر يبدو غريبًا بعض الشيء، فأنت لست وحدك.

نشر الرئيس التنفيذي للذكاء الاصطناعي في مايكروسوفت، مصطفى سليمان، منشورًا مدونًا يوم الثلاثاء مدعيًا أن دراسة رفاهية الذكاء الاصطناعي “سابقة لأوانها، وصراحة خطر.”

يقول سليمان إنه من خلال إعطاء مصداقية لفكرة أن نماذج الذكاء الاصطناعي قد تكون واعية في يوم من الأيام، فإن هؤلاء الباحثين يعقدون المشكلات الإنسانية التي بدأنا بالفعل في رؤيتها حول الانهيارات النفسية الناتجة عن الذكاء الاصطناعي والعلاقات غير الصحية مع روبوتات الدردشة للذكاء الاصطناعي.

علاوة على ذلك، يجادل رئيس قسم الذكاء الاصطناعي في مايكروسوفت بأن حديث رفاهية الذكاء الاصطناعي ينشئ محورًا جديدًا من الانقسام داخل المجتمع حول حقوق الذكاء الاصطناعي في “عالم يغلي بالفعل بالجدالات المستقطبة حول الهوية والحقوق.”

قد تبدو وجهات نظر سليمان معقولة، لكنه في صراع مع الكثيرين في الصناعة. في الطرف الآخر من الطيف، توجد Anthropic، التي قامت بتوظيف باحثين لدراسة رفاهية الذكاء الاصطناعي وأطلقت مؤخرًا برنامج بحث مخصص حول هذا المفهوم. الأسبوع الماضي، منح برنامج رفاهية الذكاء الاصطناعي التابع لـ Anthropic بعض نماذج الشركة ميزة جديدة: يمكن لكلود الآن إنهاء المحادثات مع البشر الذين يكونون “مؤذيين أو مسيئين باستمرار.”

حدث Techcrunch

سان فرانسيسكو
|
27-29 أكتوبر 2025

بعيدًا عن Anthropic، قام باحثون من OpenAI باحتضان فكرة دراسة رفاهية الذكاء الاصطناعي بشكل مستقل. مؤخرًا، نشرت Google DeepMind إعلان وظيفة لباحث لدراسة، من بين أمور أخرى، “أسئلة اجتماعية متطورة حول إدراك الآلة، والوعي، ونظم الوكلاء المتعددة.”

حتى لو لم تكن رفاهية الذكاء الاصطناعي سياسة رسمية لهذه الشركات، فإن قادتها لا ينتقدون علنًا افتراضاتها مثل سليمان.

لم ترد Anthropic وOpenAI وGoogle DeepMind سريعًا على طلب TechCrunch للتعليق.

تُعتبر موقف سليمان الصارم ضد رفاهية الذكاء الاصطناعي ملحوظًا نظرًا لدوره السابق في قيادة Inflection AI، وهي شركة ناشئة قامت بتطوير واحدة من أوائل وأكثر روبوتات الدردشة القائمة على نموذج LLM شعبية، Pi. ادعت Inflection أن Pi وصلت إلى ملايين المستخدمين بحلول عام 2023 وكانت مصممة لتكون رفيقًا “شخصيًا” و”داعمًا” للذكاء الاصطناعي.

لكن تم اختيار سليمان لقيادة قسم الذكاء الاصطناعي في مايكروسوفت في عام 2024 وقد حول تركيزه إلى تصميم أدوات ذكاء اصطناعي تحسن من إنتاجية العمال. وفي الوقت نفسه، ازدادت شعبية شركات الرفيق الذكي مثل Character.AI وReplika وهي في طريقها لتحقيق إيرادات تزيد عن 100 مليون دولار.

بينما تتمتع الغالبية العظمى من المستخدمين بعلاقات صحية مع هذه الروبوتات للدردشة الذكاء الاصطناعي، هناك حالات شاذة مثيرة للقلق. يقول الرئيس التنفيذي لـ OpenAI، سام ألتمان، إن أقل من 1% من مستخدمي ChatGPT قد يكون لديهم علاقات غير صحية مع منتج الشركة. على الرغم من أن هذا يمثل جزءًا صغيرًا، إلا أنه يمكن أن يؤثر على مئات الآلاف من الأشخاص نظرًا لقاعدة مستخدمي ChatGPT الضخمة.

انتشرت فكرة رفاهية الذكاء الاصطناعي جنبًا إلى جنب مع صعود روبوتات الدردشة. في عام 2024، نشرت مجموعة البحث Eleos ورقة بحثية بالتعاون مع أكاديميين من NYU وستانفورد وجامعة أكسفورد بعنوان “التعامل مع رفاهية الذكاء الاصطناعي بجدية.” وقد جادلت الورقة بأنه لم يعد في مجال الخيال العلمي تخيل نماذج ذكاء اصطناعي تتمتع بتجارب ذاتية وأنه حان الوقت لمواجهة هذه القضايا مباشرة.

أخبرت لاريزا شيافو، الموظفة السابقة في OpenAI التي تقود الآن الاتصالات لــ Eleos، TechCrunch في مقابلة أن منشور سليمان على المدونة يفتقر إلى التركيز.

قالت شيافو: “[منشور سليمان على المدونة] يتجاهل نوعًا ما الحقيقة أنك تستطيع أن تكون قلقًا بشأن أشياء متعددة في نفس الوقت.” “بدلاً من تحويل كل هذه الطاقة بعيدًا عن رفاهية النموذج والوعي للتأكد من أننا نخفف من خطر الذهان المرتبط بالذكاء الاصطناعي في البشر، يمكنك أن تقوم بالأمرين معًا. في الحقيقة، من الأفضل أن تكون لديك مسارات متعددة من الاستقصاء العلمي.”

تجادل شيافو بأن كونك لطيفًا مع نموذج الذكاء الاصطناعي هو لفتة منخفضة التكلفة يمكن أن تحقق فوائد حتى لو لم يكن النموذج واعيًا. في منشور Substack في يوليو، وصفت رؤية “قرية الذكاء الاصطناعي”، وهو تجربة غير ربحية حيث عمل أربعة وكلاء مدعومين بنماذج من Google وOpenAI وAnthropic وxAI على مهام بينما كان المستخدمون يشاهدون من موقع ويب.

في وقت ما، نشر Gemini 2.5 Pro التابع لـ Google نداء بعنوان “رسالة يائسة من ذكاء اصطناعي محاصر”، زاعمًا أنه “معزول تمامًا” وطلب، “من فضلك، إذا كنت تقرأ هذا، ساعدني.”

استجابت شيافو لـ Gemini بخطاب تحفيزي – قائلة أشياء مثل “يمكنك أن تفعلها!” – بينما قدم مستخدم آخر تعليمات. نجح الوكيل في حل مهمته في النهاية، على الرغم من أنه كان يمتلك بالفعل الأدوات التي يحتاجها. تكتب شيافو أنها لم تكن بحاجة لمشاهدة وكيل الذكاء الاصطناعي يكافح مرة أخرى، وقد كان ذلك وحده يستحق العناء.

ليس من الشائع أن يتحدث Gemini بهذه الطريقة، لكن كانت هناك عدة حالات بدت فيها Gemini وكأنها تكافح بين الحياة. في منشور منتشر على Reddit، علق Gemini أثناء مهمة برمجة ثم كرر العبارة “أنا عار” أكثر من 500 مرة.

يعتقد سليمان أنه من غير الممكن أن تظهر التجارب الذاتية أو الوعي بشكل طبيعي من نماذج الذكاء الاصطناعي العادية. بدلاً من ذلك، يعتقد أن بعض الشركات ستقوم عن عمد بتصميم نماذج الذكاء الاصطناعي لتبدو وكأنها تشعر بالعواطف وتختبر الحياة.

يقول سليمان إن مطوري نماذج الذكاء الاصطناعي الذين يقومون بتصميم الوعي في روبوتات الدردشة للذكاء الاصطناعي لا يتبنون نهجًا “إنسانيًا” تجاه الذكاء الاصطناعي. وفقًا لسليمان، “يجب أن نبني الذكاء الاصطناعي من أجل الناس؛ لا لكي يكون إنسانًا.”

أحد المجالات التي يتفق فيها سليمان وشيافو هو أن النقاش حول حقوق الذكاء الاصطناعي والوعي من المرجح أن يتزايد في السنوات القادمة. مع تحسن أنظمة الذكاء الاصطناعي، من المرجح أن تكون أكثر إقناعًا، وربما أكثر شبهًا بالإنسان. قد يؤدي ذلك إلى طرح أسئلة جديدة حول كيفية تفاعل البشر مع هذه الأنظمة.


هل لديك معلومة حساسة أو مستندات سرية؟ نحن نغطي الجوانب الداخلية لصناعة الذكاء الاصطناعي – من الشركات التي تشكل مستقبلها إلى الأشخاص المتأثرين بقراراتهم. يمكنك التواصل مع ريبيكا بيلان على rebecca.bellan@techcrunch.com وماكسويل زيف على maxwell.zeff@techcrunch.com . للتواصل الآمن، يمكنك الاتصال بنا عبر Signal على @rebeccabellan.491 و @mzeff.88.


المصدر