أنتروبك تحظر مؤقتًا على منشئ OpenClaw الوصول إلى كلود
“نعم أيها الناس، سيكون من الأصعب في المستقبل التأكد من أن OpenClaw لا يزال يعمل مع نماذج Anthropic”، نشر مبتكر OpenClaw بيتر شتاينبرغر على X في وقت مبكر من صباح يوم الجمعة، مع صورة لرسالة من Anthropic تقول إن حسابه قد تم تعليقه بسبب نشاط “مشبوه”.
لم يستمر الحظر طويلاً. بعد ساعات قليلة، عقب انتشار المنشور بشكل كبير، قال شتاينبرغر إن حسابه قد تم إعادة تفعيله. من بين المئات من التعليقات – العديد منها في مجال نظريات المؤامرة، نظرًا لأن شتاينبرغر يعمل الآن لدى المنافس Anthropic OpenAI – كان هناك تعليق من مهندس في Anthropic. وأخبر المهندس المطور الشهير بأن Anthropic لم يحظر أي شخص قط لاستخدام OpenClaw وعرض المساعدة.
ليس من الواضح ما إذا كان ذلك هو المفتاح الذي أعاد الحساب. (لقد طلبنا من Anthropic التعليق على ذلك.) لكن سلسلة الرسائل بالكامل كانت مثيرة للاهتمام على العديد من المستويات.
للتلخيص الأحداث الأخيرة: جاء هذا الحظر بعد إعلان الأسبوع الماضي أن الاشتراكات في نموذج Anthropic Claude لن تغطي بعد الآن “الأدوات الخارجية بما في ذلك OpenClaw”، كما قالت الشركة.
يتعين على مستخدمي OpenClaw الآن دفع رسوم لاستخدام ذلك بشكل منفصل، بناءً على الاستخدام، من خلال واجهة برمجة التطبيقات لClaude. في جوهرها، أصبحت Anthropic، التي تقدم وكيلها الخاص Cowork، تفرض “ضريبة المخلب”. قال شتاينبرغر إنه كان يتبع هذه القاعدة الجديدة ويستخدم واجهة برمجة التطبيقات الخاصة به، ولكن تم حجبه على أي حال.
قالت Anthropic إنها فرضت تغيير الأسعار لأن الاشتراكات لم تكن مصممة للتعامل مع “أنماط استخدام” المخالب. المخالب يمكن أن تكون أكثر تطلبًا للموارد الحاسوبية من المطالبات أو السكربتات البسيطة لأنها قد تدير حلقات تفكير مستمرة، تكرر أو تعيد المهام تلقائيًا، وترتبط بالعديد من الأدوات الخارجية الأخرى.
ومع ذلك، لم يكن شتاينبرغر يقبل هذا العذر. بعد تغيير Anthropic لأسعارها، نشر: “من المضحك كيف تتوافق التوقيتات، أولاً ينسخون بعض الميزات الشائعة إلى أداتهم المغلقة، ثم يقفلون أبواب المصدر المفتوح.” على الرغم من أنه لم يحدد، فقد كان قد يشير إلى الميزات المضافة إلى وكيل Claude Cowork، مثل Claude Dispatch، الذي يسمح للمستخدمين بالتحكم عن بُعد في الوكلاء وتكليف المهام. وتم طرح Dispatch قبل أسبوعين من تغيير Anthropic لسياسة أسعار OpenClaw.
كانت إحباطات شتاينبرغر مع Anthropic مرة أخرى ظاهرة يوم الجمعة.
أحد الأشخاص ألمح إلى أن بعض ذلك يقع عليه، لأنه قبل وظيفة في OpenAI بدلاً من Anthropic، نشر “كان لديك الخيار، لكنك ذهبت إلى الخيار الخاطئ.” فرد شتاينبرغر: “واحد رحب بي، وواحد أرسل تهديدات قانونية.”
أووه.
عندما سألته عدة أشخاص لماذا يستخدم Claude بدلاً من نماذج صاحب العمل، أوضح أنه يستخدمه فقط للاختبار، لضمان عدم تعطل التحديثات لـ OpenClaw لمستخدمي Claude.
أوضح: “تحتاج إلى فصل شيئين. عملي في مؤسسة OpenClaw حيث نريد أن نجعل OpenClaw تعمل بشكل ممتاز مع *أي* مزود نموذج، وعملي في OpenAI لمساعدتهم في استراتيجية المنتج المستقبلية.”
أشار العديد من الأشخاص أيضًا إلى أن الحاجة لاختبار Claude هي لأن هذا النموذج لا يزال خيارًا شائعًا لمستخدمي OpenClaw مقارنة بـ ChatGPT. كما سمع عند تغيير Anthropic لأسعارها، حيث رد قائلاً: “أعمل على ذلك.” (لذا، هذه تلميح حول ما تتضمنه وظيفته في OpenAI.)
لم يرد شتاينبرغر على طلب للتعليق.