يدعو باحثو الذكاء الاصطناعي من OpenAI وGoogle DeepMind وAnthropic، بالإضافة إلى ائتلاف واسع من الشركات والمنظمات غير الربحية، إلى تحقيق أعمق في تقنيات مراقبة ما يسمى بأفكار نماذج التفكير الاصطناعي في ورقة موقف نشرت يوم الثلاثاء.
تتميز نماذج التفكير الاصطناعي، مثل o3 من OpenAI وR1 من DeepSeek، بسلاسل التفكير أو CoTs — وهي عملية خارجية تعمل فيها نماذج الذكاء الاصطناعي على حل المشكلات، مماثلة للطريقة التي يستخدم بها البشر دفتر ملاحظات للتفكير في مسألة رياضية صعبة. تعتبر نماذج التفكير تقنية أساسية لدعم وكلاء الذكاء الاصطناعي، ويؤكد مؤلفو الورقة أن مراقبة CoT قد تكون وسيلة أساسية للحفاظ على السيطرة على وكلاء الذكاء الاصطناعي مع اتساع نطاق استخدامها وزيادة قدراتها.
قال الباحثون في ورقة الموقف: “تقدم مراقبة CoT إضافة قيمة لإجراءات السلامة للذكاء الاصطناعي المتقدم، مما يوفر لمحة نادرة عن كيفية اتخاذ وكلاء الذكاء الاصطناعي للقرارات.” وأضافوا: “ومع ذلك، لا توجد ضمانات بأن مستوى الرؤية الحالي سوف يستمر. نشجع المجتمع البحثي ومطوري الذكاء الاصطناعي المتقدم على الاستفادة القصوى من إمكانية مراقبة CoT ودراسة كيفية الحفاظ عليها.”
تطلب الورقة من كبار المطورين لنماذج الذكاء الاصطناعي دراسة ما يجعل CoTs “قابلة للرصد” — بعبارة أخرى، ما العوامل التي يمكن أن تزيد أو تقليل الشفافية حول كيفية وصول نماذج الذكاء الاصطناعي بالفعل إلى الإجابات. ويقول مؤلفو الورقة إن مراقبة CoT قد تكون وسيلة أساسية لفهم نماذج التفكير الاصطناعي، لكنهم يشيرون إلى أنها قد تكون هشة، محذرين من أي تدخلات قد تقلل من شفافيتها أو موثوقيتها.
كما يدعو مؤلفو الورقة مطوري نماذج الذكاء الاصطناعي إلى تتبع إمكانية مراقبة CoT ودراسة كيفية إمكانية تطبيق هذه الطريقة يوماً ما كوسيلة للسلامة.
تشمل التوقيعات البارزة على الورقة رئيس قسم البحث في OpenAI مارك تشين، والرئيس التنفيذي لشركة Safe Superintelligence إيلليا سوتسكيفر، وحائز جائزة نوبل جيفري هينتون، والشريك المؤسس لـ Google DeepMind شين ليغ، ومستشار السلامة في xAI دان هيندريكس، والشريك المؤسس لشركة Thinking Machines جون شيلمان. ومن بين المؤلفين الأوائل قادة من معهد أمان الذكاء الاصطناعي في المملكة المتحدة وبحوث أبولو، وتأتي توقيعات أخرى من METR وأمازون وMeta وجامعة كاليفورنيا في بيركلي.
تعتبر الورقة لحظة من الوحدة بين العديد من قادة صناعة الذكاء الاصطناعي في محاولة لتعزيز البحث حول سلامة الذكاء الاصطناعي. تأتي في وقت تتنافس فيه الشركات التكنولوجية بشدة — مما دفع Meta لاستقطاب باحثين بارزين من OpenAI وGoogle DeepMind وAnthropic بعروض تصل إلى الملايين. ومن بين الأكثر طلبًا هم الباحثون الذين يبنون وكلاء الذكاء الاصطناعي ونماذج التفكير الاصطناعي.
قال باون بيكر، باحث في OpenAI عمل على الورقة، في مقابلة مع TechCrunch: “نحن في هذا الوقت الحاسم حيث لدينا هذه الفكرة الجديدة عن سلسلة التفكير. يبدو أنها مفيدة جدًا، لكنها قد تختفي في غضون بضع سنوات إذا لم يركز الناس حقًا عليها.” وأضاف: “نشر ورقة موقف مثل هذه، بالنسبة لي، هو آلية للحصول على المزيد من البحث والانتباه حول هذا الموضوع قبل حدوث ذلك.”
أصدرت OpenAI بشكل علني معاينة لأولى نماذج التفكير الاصطناعي، o1، في سبتمبر 2024. ومنذ ذلك الحين، كانت صناعة التكنولوجيا سريعة في إصدار منافسين يظهرون قدرات مماثلة، حيث أظهرت بعض النماذج من Google DeepMind وxAI وAnthropic أداءً أكثر تقدمًا على مقاييسBenchmark.
ومع ذلك، لا يفهم الكثير عن كيفية عمل نماذج التفكير الاصطناعي. بينما تفوقت مختبرات الذكاء الاصطناعي في تحسين أداء الذكاء الاصطناعي في العام الماضي، لم يتحول ذلك بالضرورة إلى فهم أفضل لكيفية وصولهم إلى إجاباتهم.
كانت أنثروبيك واحدة من رواد الصناعة في فهم كيف تعمل نماذج الذكاء الاصطناعي فعلاً — وهو مجال يُسمى قابلية التفسير. في وقت سابق من هذا العام، أعلن الرئيس التنفيذي داريو أمودي التزامه بفتح الصندوق الأسود لنماذج الذكاء الاصطناعي بحلول عام 2027 وزيادة الاستثمار في قابلية التفسير. ودعا أيضاً OpenAI وGoogle DeepMind إلى البحث في هذا الموضوع أكثر.
أظهرت الأبحاث المبكرة من أنثروبيك أن CoTs قد لا تكون مؤشراً موثوقاً بالكامل حول كيفية وصول هذه النماذج إلى إجاباتها. في الوقت نفسه، قال باحثو OpenAI إن مراقبة CoT قد تكون يومًا ما وسيلة موثوقة لتتبع التوافق والسلامة في نماذج الذكاء الاصطناعي.
هدف ورقات الموقف مثل هذه هو تعزيز ودعم المزيد من الاهتمام في مجالات البحث الناشئة، مثل مراقبة CoT. شركات مثل OpenAI وGoogle DeepMind وAnthropic تبحث بالفعل في هذه الموضوعات، لكن من الممكن أن تشجع هذه الورقة على المزيد من التمويل والبحث في هذا المجال.
