Anthropic неочікувано заборонив творцю OpenClaw доступ до Claude

«Так, друзі, у майбутньому буде важче забезпечити роботу OpenClaw з моделями Anthropic», – опублікував творець OpenClaw Пітер Штайнбергер на X рано вранці в п’ятницю , опублікувавши фотографію повідомлення від Anthropic, в якому повідомлялося, що його обліковий запис заблоковано через «підозрілу» активність.
Заборона тривала недовго. Через кілька годин, після того, як пост став вірусним, Штайнбергер заявив, що його обліковий запис відновлено. Серед сотень коментарів — багато з яких були в галузі теорій змови, враховуючи, що Штайнбергер зараз працює в конкуренті Anthropic, OpenAI — був один від інженера Anthropic. Інженер сказав відомому розробнику, що Anthropic ніколи нікого не блокувала за використання OpenClaw, і запропонував свою допомогу.
Незрозуміло, чи це був той ключ, який відновив обліковий запис. (Ми запитали Anthropic про це.) Але весь рядок повідомлення був повчальним на багатьох рівнях.
Підсумовуючи нещодавню історію: ця заборона настала після новин минулого тижня про те, що підписки на Claude від Anthropic більше не поширюватимуться на «сторонні пристрої, включаючи OpenClaw», – заявила компанія, що розробляє моделі штучного інтелекту.
Користувачі OpenClaw тепер повинні платити за це використання окремо, залежно від обсягу споживання, через API Клода. По суті, Anthropic, яка пропонує власного агента Cowork, тепер стягує «податок на клешню». Штайнбергер сказав, що дотримувався цього нового правила та використовував свій API, але все одно був заблокований.
Anthropic заявила, що запровадила зміну цін, оскільки підписки не були створені для обробки «моделей використання» кігтів. Кігті можуть бути більш обчислювально ресурсоємними , ніж підказки чи прості скрипти, оскільки вони можуть запускати безперервні цикли міркувань, автоматично повторювати або повторювати завдання та бути пов’язаними з багатьма іншими сторонніми інструментами.
Однак Штайнбергер не повірив цьому виправданню. Після того, як Anthropic змінила ціни, він написав : «Цікаво, як збігаються терміни: спочатку вони копіюють деякі популярні функції у свій закритий хардкор, а потім блокують відкритий код». Хоча він не уточнив, можливо, він мав на увазі функції, додані до агента Cowork від Claude, такі як Claude Dispatch, який дозволяє користувачам дистанційно керувати агентами та призначати завдання . Dispatch був запущений за пару тижнів до того, як Anthropic змінила свою цінову політику OpenClaw.
Розчарування Штайнбергера програмою Anthropic знову проявилося у п’ятницю.
Одна людина натякнула, що частково це звинувачує його в тому, що він влаштувався на роботу в OpenAI замість Anthropic, написавши: «У вас був вибір, але ви обрали не той». На що Штайнбергер відповів: «Один мене вітав, інший надсилав юридичні погрози».
Коли кілька людей запитали його, чому він взагалі використовує Claude замість моделей свого роботодавця, він пояснив, що використовує його лише для тестування, щоб переконатися, що оновлення OpenClaw не призведуть до порушень у роботі користувачів Claude.
Він пояснив: «Потрібно розрізняти дві речі. Мою роботу в OpenClaw Foundation, де ми хочемо зробити так, щоб OpenClaw чудово працював для *будь-якого* постачальника моделей, і мою роботу в OpenAI, щоб допомогти їм з майбутньою стратегією продукту».
Кілька людей також зазначили, що необхідність тестування Клода пов’язана з тим, що ця модель залишається популярним вибором для користувачів OpenClaw замість ChatGPT. Він також почув це, коли Anthropic змінила своє ціноутворення, на що відповів: «Працюю над цим». (Отже, це підказка щодо того, що передбачає його робота в OpenAI.)

