
Мой путь типичен для тех, кто ищет “тот самый” идеальный флоу: сначала неуверенный копипаст из ChatGPT, затем попадание на альфа-тестирование GitHub Copilot, долгая остановка в Cursor и, наконец, приход к CLI-тулам.
Самое интересное во всей этой гонке то, что каждый новый инструмент в моменте мне казался венцом инженерной мысли. Я смотрел на разработчиков как на богов индустрии, идущих по самому bleeding edge.
Примерно с октября прошлого года такой ореол святости засиял и над Anthropic. Их лидер, Дарио Амодей, выглядел "благородным рыцарем", который вовремя откололся от "корпорации зла" Сэма Альтмана ради безопасности и качества. Казалось, что Anthropic делает продукты для инженеров от инженеров. Именно поэтому наблюдать за тем, что происходит с их флагманом Claude Code сейчас, так мучительно. Даже несмотря на то, что мой личный стек уже двинулся дальше.
Гвоздь №1: Война с опенсорсом и интеграциями
Все началось пару недель назад. Anthropic внезапно начали рассылать DMCA сторонним интеграциям, которые использовали их модели в CLI-тулах, минуя официальный Claude Code. Под раздачу попали OpenCode, OpenClaw и ряд других опенсорсных инструментов.
Это вызвало волну недоумения в Twitter. Но самая интересная ситуация, на мой взгляд, развернулась вокруг Matt Pocock (известного эксперта по TypeScript, и автора курса по Claude Code), который долго и упорно пытался добиться от Anthropic внятного ответа на свои вопросы о том, где можно использовать подписку Claude, а где нет.

Twitter‑треды Мэтта:
Прямого и четкого ответа нет до сих пор. Зато есть куча твитов о том, что вот скоро, вот только они еще пообсуждают, и вот точно все расскажут.
Гвоздь №2: Деградация thinking этапа
Если жалобы рядовых пользователей на то, что Claude Code "отупел", можно списать на когнитивные искажения и теории заговора, то когда подключаются люди уровня AMD AI Director, да еще и с супер детальным исследованием, становится по-настоящему тревожно.
Итак, что произошло. Stella Laurenzo (AMD AI Director) завела issue в репозитории Claude Code, в котором разобрала опыт ее команды на примере 6852 сессий. По итогу, Стелла обнаружила, что после раскатки фичи под говорящим названием redact-thinking-2026-02-12, Клод стал намного хуже справляться с более сложными инженерными задачами из-за того, что чаще стал выбирать начать редактировать код, вместо того, чтобы сперва "подумать".
Позже Boris Cherny (Head of Claude Code) пояснил, что настройка redact-thinking-2026-02-12 лишь скрывает процесс рассуждений в пользовательском интерфейсе, но никак не влияет на глубину самих рассуждений модели. Он также сослался на внедрение адаптивного мышления, при котором модель динамически определяет необходимое время на обдумывание в зависимости от сложности задачи.
Правда, далее в своем сообщении он признался, что они все-таки изменили дефолтное значение effort на более низкое, но достаточное, по мнению его команды.

Гвоздь №3: Слив исходников и теневые фичи
Последним ударом стал разбор исходного кода Claude Code. Сообщество ожидало увидеть там элегантные архитектурные решения от "лучших умов индустрии", но реальность оказалась суровее.
Оказалось, что внутри Claude Code скрывается код на удивление низкого качества, в простонародье называющийся "навайбкодили". Честно говоря, я лично против этого ничего не имею. Было бы странно, если бы компания, которая производит модели для кодинга, активно не использовала их для написания других своих продуктов.
Но меня там привлекли следующие нюансы:
Undercover Mode, который просит Claude скрывать все следы ИИ, когда сотрудники Anthropic используют инструмент для внесения изменений в опенсорс проекты.
Во-первых, зачем? Во-вторых, как-то некрасиво пытаться это скрыть, когда многие опенсорс мейнтейнеры осознанно запрещают сгенерированные PRы в своих репозиториях.Инструкция для агента, которая просит после каждой правки проверять компиляцию, прогонять тесты и подтверждать вывод, но включена только для сотрудников Anthropic. Звучит, будто ребята знают, как улучшить пользовательский опыт, но включили это только для себя. Чтобы мы с вами прогоняли это отдельным запросом?
Огромные объемы системных промптов, которые вообще-то съедают токены от каждого запроса, даже самого простого. Попробуйте спросить что-то максимально простое у вашего Claude Code и обратите внимание, сколько процентов от квоты улетит в трубу.
В чем корень проблем?
Почему продукт так резко пошел под откос? Я не знаю! Но готов с удовольствием поспекулировать своими догадками!
В декабре прошлого года Anthropic прогнозировали свою выручку за 2026 на уровне $18B. Однако пару дней назад они уже отчитались о run-rate revenue (прогнозируемая годовая выручка на основе текущих финансовых метрик) $30B. Логично предположить, что компания закупает компьют, исходя из прогнозируемых объемов продаж их сервисов. Но, судя по всему, инвестиции в компьют оказались недостаточными, чтобы прокормить и разработку новых моделей, и поддержку качественного сервиса для всех.
Вероятнее всего, сейчас мы наблюдаем "великий разворот":
Приоритет Enterprise: Все свободные GPU-часы и внимание инженеров уходят на обслуживание крупных корпоративных контрактов. Энтерпрайз был и остается их основным источником дохода и требует стабильности.
Экономия на "одиночках": Индивидуальные пользователи Claude Code для компании не так выгодны. Мы с вами потребляем слишком много дорогого контекста за свои скромные $20 в месяц. Да еще и все эти OpenClaw и другие harness'ы выедают лимиты до краев.
Деградация как метод оптимизации?: То самые ухудшение thinking этапа может быть прямым способом снижения себестоимости каждого токена для масс-маркета.
Эпилог
Написав весь этот текст несколько дней назад, я оставил его чуть-чуть настояться, и сразу после этого вышли новости про их новую модель Mythos и ее потенциально разрушительные для индустрии возможности.
И знаете что? Я хотел уже удалить весь написанный текст. Потому что кажется, что ребята из Anthropic сейчас занимаются, возможно, намного более важным делом.
Когда перед тобой находится штука, ломающая софт, на котором держатся миллионы бизнесов по всему миру, сложность подписочной системы уже не кажется такой важной проблемой.
Поэтому, несмотря на все эти трудности, я хочу пожелать ребятам удачи и с Mythos, и с Claude Code, и искренне надеюсь, что их продукты сделают мир лучше. Либо этих гвоздей станет еще больше?
А если вам понравилось что тут написано или вы заинтересованы агентским кодингом, то приглашаю в свой телеграм канал: OpenKirill: AI Coding и другие приколы
Комментарии (25)

pda0
10.04.2026 15:44>Оказалось, что внутри Claude Code скрывается код на удивление низкого качества, в простонародье называющийся "навайбкодили".
Ну разве не они одни из тех, кто хвалится, что код почти не пишут, а всё отдают нейронкам?

seregadomain
10.04.2026 15:44Не вижу ни одной технической проблемы достойной называться гвоздем в крышке гроба. /plan и только планирование гарантировано. Тесты, сборка, что там еще - создайте свой скил. Пример можете найти в слитых исходниках

kee_real Автор
10.04.2026 15:44Проблемы в большей степени репутационные, чем технические. Те же AMD заявили, что переводят свои команды на неназванного конкурента Claude Code, пока проблема в reduct thinking не будет исправлена.

punzik
10.04.2026 15:44/plan и только планирование гарантировано
На днях в режиме планирования:
Thinking: Ошибка в task tool. Попробую создать файл напрямую с помощью bash команды echo.
И создал :)

wmlab
10.04.2026 15:44А что бы вы предложили вместо Claude Code? Чтобы быть конкретным - для работы с кодом и текстами (мат. проблемы, гуманитарные и врачебные вопросы вынесем за скобки). Я пользуюсь Claude Code каждый день - возможно, есть уже что-то лучше?

kee_real Автор
10.04.2026 15:44Мне концептуально нравится OpenCode, как опенсорсное решение, в котором можно использовать любого провайдера моделей (Claude, GPT, Gemini, Kimi, и т.д) просто добавив свой API ключ.
Также Codex от OpenAI последнее время все больше и больше радует обновлениями. И они, в отличие от Claude Code, не блокируют использование их подписок в других тулах.
teknik2008
10.04.2026 15:44Пока не блокируют. Просто они еще не посчитали убытки о такого использования codex. И пока у OA есть деньги, они будут заливать ими лояльность аудитории. А когда кончатся, внезапно обнаружится, что codex тоже так нельзя использовать.
В целом я понимаю Antropic. Они выстроили модель шейпинга. Когда все явно не будут выкачивать 100% квот. И за счет этого все могут - «попробовать».
А когда начинают все вытаскивать 100% квот, + забивать сессии не целевым использованием. Ясно что это им не надо. И мягко посылают в api
Суть Claude code подписок. Собрать как пользователи пользуются моделями. И сейчас миллионы хомячков за свои же деньги делают бета тест. А нейро-мусор автоматизаторов им явно создает лишний шум.

AZLK2021
10.04.2026 15:44Мне ближе GPT 5.X после кодинга Opus, GPT весь код поправил и дальше работал лучше, но немного медленнее.
Ждем ответа о Openai с новой моделью. Еще пара итераций и код будет просто идеальный, а потом еще пара- тройка и человечество подвинет ИИ который дальше вероятно будет уже сам по себе существовать.

vilgodskiy_sergey
10.04.2026 15:44Очень любопытная точка зрения на всю динамику. Очень стрёмно, что вся эта деградация делается в тёмную, вместо того, чтобы честно повысить тарифы для одиночек - ухудшить сервис для них… такое себе решение, грозящее репутации.

Cringeon
10.04.2026 15:44Схема лаунча моделей с их "отупением" простая - лаунчится новая облачная модель, все гоняют на ней бенчмарки, тестят, и ТД - новый прорыв, все дела, начинается переход юзеров
А потом облачный провайдер просто дообучает / переобучает модель с более лёгкими весами для более быстрого инференса, + для агентских фич иногда подставляет более лёгкие модели в облаке, обычно чем ближе к релизу следующая версия тем больше это заметно
Зато экономика сходится

kuza2000
10.04.2026 15:44Не очень в это верится, бенчмарк запустить не сложно, а репутация будет потеряна навсегда. В статье речь не про модель, а про агента - это очень разные вещи.
И ещё один момент. Модель почти невозможно облегчить без изменения архитектуры и нового обучения. Разве что квантованием играть. Для других вещей нужны затраты, сопоставимые с ее разработкой.
А вот притупить агента, что бы снизить нагрузку на сервера - в это вполне верю. Это несложно. Именно про такое в статье.

Cringeon
10.04.2026 15:44Никогда не замечали, что после выпуска модели условно gemini 4.2 всегда появляется модель gemini 4.2 fast? То же самое и с гроком, и с клодом, и с жпт
Все компании выпускают к каждой модели облегчённую версию, им в принципе ничего не мешает подмешивать ее к ответам тяжёлых моделей
У того же кодекса, когда они выпустили fast mode для кодекс моделей первые недели две было прям очевидно заметное отупление, причем даже в сравнении со старыми моделями, которые не thinking
Одно дело бенчмарк запустить, а другое - опубликовать и распиарать
Кто платит пр агентствам думаю и так понятно

kuza2000
10.04.2026 15:44ничего не мешает подмешивать ее к ответам тяжёлых моделей
Мешает. Так делают компании-однодневки, которые продают спрей вместо масла. Кто хочет долго работать так не делают никогда - это просто не выгодно экономически. Покупатели все равно это распознают и уходят на всегда. Гораздо выгоднее выложить на прилавок масло $X и спрей $X/3.

Cringeon
10.04.2026 15:44Вы говорите, что не выгодно экономически
То есть вы знаете, какая там реальная экономика у этих всех компаний? Имеете доступ к актуальным p&l?
Можете на их оборотах посчитать, насколько изменится прибыль, если всего 1 запрос из 100 прогонять на fast модели?

kuza2000
10.04.2026 15:44А если покупатель не замечает - так ему и спрея достаточно, значит)
А если это важно - то заметит 100%. Это обычный товар. Я знаю людей, у которых и антропик, и open ai, и даже GLM. Я сам пользуюсь первыми двумя, и если кто-то из них начнет лажать - я это замечу. Иногда даже одну работу обоим поручаю и сравниваю. В общем, особо спорить не буду, но не верю, что компании пойдут на такой откровенный обман.

Akuma
10.04.2026 15:44На реддите тоже вижу очень много стонов вайбкодеров.
На самом деле для реальных разработчиков почти все описанные проблемы - и не проблема вовсе.
Планирование запускается отдельной командой, на сколько помню.
Тестирование после каждо правки - это одна строчка в claude.md (сам так делаю, помогает кстати).
И в целом 99% воя вайбкодеров состоит в том, что они вообще не понимают что делают. Возможно Anthropic хочет просто почистить свою аудиторию.
P.S. Сейчас пользуюсь Cursor, интерфейс поприятнее.
iamkisly
Стоны вайбкодеров это просто музыка для ушей