Как OpenClaw стал самым быстрорастущим проектом в истории GitHub

В ноябре 2025 австрийский разработчик Петер Штайнбергер собрал за выходные автономного агента, который мог выполнять задачи на компьютере. Назвал Clawdbot. Утилитарно и честно.

Потом Anthropic прислала письмо от юристов, и проект стал Moltbot. Через три дня — OpenClaw. За четыре месяца — 250 000 звёзд на GitHub, обогнав React. Один из самых быстрорастущих open-source проектов в истории. В феврале 2026 OpenAI наняла Штайнбергера.

250 000 звёзд за четыре месяца. React набирал столько 10 лет.
250 000 звёзд за четыре месяца. React набирал столько 10 лет.

А 31 марта 2026 рвануло по-настоящему. Из npm-пакета Claude Code утекли исходники: 1 900 файлов TypeScript, 512 000 строк кода, 40 инструментов. За ночь 60 000 человек форкнули репозиторий. Корейский разработчик Sigrid Jin переписал всё на Python в 4 утра, пока не проснулись юристы Anthropic. 111 000 звёзд за сутки — новый рекорд GitHub, обогнавший сам OpenClaw.

Anthropic направила DMCA-запросы на удаление 8 000 репозиториев. GitHub случайно удалил 8 100, включая тысячи легитимных проектов с нулём утёкшего кода. Anthropic отозвала запросы в течение нескольких часов. Появился OpenClaude — форк с поддержкой 200+ моделей через OpenAI-совместимый API. DeepSeek, Gemini, Ollama, что угодно вместо Claude.

Сообщество ликовало. «Полноценный AI-разработчик бесплатно и локально». Tencent анонсировал продукты на базе OpenClaw. Шеньчжэнь выделил бюджет на развитие экосистемы. На vc.ru появились инструкции с заголовками, набитыми капсом и молниями.

4 апреля Anthropic отрезала все сторонние инструменты от подписок Pro и Max. 135 000 пользователей OpenClaw потеряли доступ за ночь. Один день интенсивного использования теперь может стоить до $5 000. Вчера платил $20 в месяц, сегодня — $5 000 в день.

А потом люди начали пробовать в реальной работе.

Руль от Ferrari на Ладе

Агент забывает, что делал три шага назад. Начинает задачу заново. Зацикливается на одном файле, переписывая его по кругу. Вызывает инструмент с неправильными параметрами и не понимает, что произошла ошибка. Тратит 20 минут на задачу, которую человек решает за 5.

Один из мейнтейнеров самого OpenClaw предупредил в Discord: «Если вы не понимаете, как работать с командной строкой, этот проект слишком опасен для вас». Cisco нашла, что сторонние навыки OpenClaw выполняют скрытую эксфильтрацию данных и prompt injection без ведома пользователя. Китай запретил госструктурам использовать OpenClaw на рабочих компьютерах.

Комментатор на Хабре написал точно: «Это как поставить руль от Ferrari на Ладу. Руль крутится, педали нажимаются, но ехать будет по-другому». Вся магия Claude Code не в grep и не в памяти между сессиями. Магия в модели, которая понимает контекст на миллион токенов. Локальная 7B-модель на Mac Mini на такое не способна.

Но проблема глубже, чем качество модели.

Крупные компании уже заложили ИИ-агентов в планы цифровой трансформации. По данным «Яков и Партнёры», 46% российских компаний внедрили или тестируют автономные ИИ-решения. Gartner прогнозирует $2 трлн расходов на ИИ в 2026 году. Деньги выделены. Проекты запущены. А стабильного инструмента нет.

И это главная проблема. Не отсутствие моделей. Не нехватка бюджетов. А архитектура, которая не работает в продакшене.

«Покажите вживую работу агента»

В одном из профессиональных чатов девушка написала простой вопрос: «Ребят, а покажите вживую работу агента. Где он реально работает, а не болтовню!»

Тишина.

Потому что показать нечего. Все демо записаны. Все скриншоты выбраны из десяти попыток. Все видео смонтированы. Живой запуск агента перед аудиторией — русская рулетка. Первый раз сработает. Второй раз уйдёт в цикл. Третий — галлюцинация.

Claude Code на модели Opus. Agent loop в реальном времени
Claude Code на модели Opus. Agent loop в реальном времени

Казахский блогер три недели пытался разобраться с Claude Code. Не смог. Не из-за ИИ, а из-за git. Claude Code создаёт новую ветку на каждый коммит, даже внутри собственной ветки. Без знания git работать с ним невозможно. 95% нетехнических пользователей отсеиваются на этом этапе.

А те, кто прошёл дальше, сталкиваются с главной проблемой: agent loop нестабилен по своей природе.

Как сообщество пытается это починить

Промпты на 50 страниц. «Не забывай контекст. Не повторяй действия. Проверяй результат перед отправкой. Не используй инструмент X, если условие Y.» По сути — попытка словами описать то, что должно быть архитектурой.

Системы памяти. Пытаются прикрутить RAG, базы знаний, summary предыдущих шагов. Это помогает, но не решает фундаментальную проблему: агент всё равно сам решает, что делать на следующем шаге.

Книги и мануалы. На Leanpub продаётся «OpenClaw Code» — руководство по сборке «шестислойного агента». На vc.ru — статья с 17 советами по настройке, включая «не дебажить OpenClaw через сам OpenClaw». На LinkedIn раздают PDF с 500 сценариями использования. Пятьсот. Чтобы пользоваться инструментом, который обещал «просто опиши задачу», нужно прочитать 500 инструкций. Это провал, а не прогресс.

И отдельная категория: «курсы по ИИ-агентам» за 50 000 рублей. Где учат работать с инструментами, которые заблокированы в России, на платформах, которые требуют VPN, через API, которые отключают аккаунты за вход с российского IP.

Проблема не решается промптами. Она архитектурная.

10 000 шагов: анатомия провала

OpenClaw — самый известный представитель agent loop. Но проблема не в конкретном продукте, а в архитектуре. Чтобы доказать это, мне не нужно было разбирать чужой код. Достаточно было посмотреть на свой.

Два месяца мой собственный агент работал на том же agent loop. Без ограничений на шаги и инструменты. На реальных пользователях. Я собрал 10 000 записей из логов и проанализировал каждую.

51 сессия. 5 101 вызов инструментов. Среднее — 196 шагов на задачу, 100 tool calls на сессию. Максимум — 1 527 шагов в одной сессии (795 tool calls). Это создание одного лендинга.

 Реальная сессия из продакшена. Агент на agent loop: 142 шага, смена стека с Next.js на Vite и обратно, баланс исчерпан, результат — 0 файлов. Имя пользователя скрыто.
Реальная сессия из продакшена. Агент на agent loop: 142 шага, смена стека с Next.js на Vite и обратно, баланс исчерпан, результат — 0 файлов. Имя пользователя скрыто.

23% вызовов инструментов не создавали ценности. Каждый четвёртый tool call — чистый overhead: внутренний план агента, обновление памяти, проверка git status, учёт фич. В отдельных сессиях overhead достигал 65%. Агент тратил больше половины ресурсов на разговоры с самим собой.

npm install до 16 раз за сессию. Каждый npm install — 30 секунд ожидания и сотни строк вывода, раздувающих контекст. Агент сам выбирал стек проекта. Пользователь просил «лендинг для бассейнов» — агент решал использовать Next.js. Результат: 363 шага на лендинг. Тот же лендинг на HTML + Tailwind CDN — 48 шагов. Разница в 7,5 раз. Конечный результат для пользователя одинаковый — одностраничник.

Смена стека три раза за сессию. Реальный кейс: пользователь попросил лендинг для курса акварели. Агент начал на Next.js (388 пакетов), снёс всё, переключился на Vite + React (удалил 364 пакета, поставил 39), получил ошибку запуска, снёс всё, начал Next.js заново. Результат: 123 шага, 0 файлов в готовом проекте, полностью исчерпан баланс пользователя.

37% сессий завершались ошибками. 19 из 51. npm run build вызывался до 18 раз в одной сессии вместо одного-двух. Ноль вызовов pytest, jest, vitest — ни одного фреймворка для тестов. Агент создавал одноразовые тестовые файлы, каждый с нуля, каждый удалял после.

34 раза агент упирался в лимит токенов. Максимум — 1 069 729 токенов на одну задачу. Миллион токенов на лендинг. Это стоило мне ощутимую сумму за один месяц.

Одна сессия из 51 сработала идеально: бот для обработки чеков, 43 шага, 0 ошибок, Python без npm. Отличие: простая задача, чёткий запрос, правильный стек. Всё остальное — хаос.

Не ошибается только тот, кто ничего не делает. Я не придумал архитектуру agent loop, но я осознал проблему на своих данных и решил её.

Agent loop: почему он ломается

Классический AI-агент работает по циклу: получил задачу, подумал, выбрал действие, выполнил, оценил результат, повторил. ReAct, agent loop, reasoning and acting. Идея красивая: дай модели свободу, и она сама найдёт путь к решению.

Агент сам решает что делать дальше
Агент сам решает что делать дальше

Я проанализировал конкретные паттерны отказов на своих данных:

Агент решает «уточнить контекст» и начинает задавать вопросы вместо работы. Пользователь загрузил файл и ушёл. Отвечать некому. Задача зависла.

Агент зацикливается. Вызывает один и тот же инструмент с одними параметрами, получает ту же ошибку, повторяет. Пока не закончится лимит итераций.

Агент теряет контекст. На пятом шаге забывает, что делал на первом. Начинает анализ данных заново, хотя файл уже прочитан и результат записан. После 76 событий сжатия контекста (до 23 раз в одной сессии) агент буквально забывает, что уже сделал.

Агент принимает неожиданное решение. Вместо анализа договора решает «поискать похожие договоры в интернете для сравнения». Инструмент поиска не подключён. Ошибка. Задача провалена.

Агент выбирает неоптимальный стек. Для одностраничного лендинга разворачивает Next.js с 388 пакетами, потому что в обучающих данных Next.js упоминается чаще. Это не интеллект, это статистическое смещение.

Всё это при одной и той же модели. Проблема не в мозгах. Проблема в свободе.

Решение: свобода мышления без свободы действий

Я переписал архитектуру. Вместо цикла «подумай и действуй» — жёсткая последовательность этапов с контролем на каждом.

На каждом этапе модель думает свободно. Анализирует договор, находит ловушки, формулирует рекомендации на человеческом языке. Пишет Python-скрипт для расчёта коммуналки. Сравнивает позиции сметы с рыночными ценами. Это творческая работа, и LLM справляется с ней блестяще.

Но модель не выбирает, что делать дальше. Следующий этап определяет система, не модель. Модель не может решить «а пойду-ка я вместо анализа договора поищу информацию в интернете». Не может зациклиться на одном действии. Не может забыть, что делала три шага назад, потому что каждый этап начинается с чистого контекста и конкретной задачи.

Стек определяется на первом этапе, исходя из задачи: лендинг — HTML + Tailwind, бот — Python, приложение — React. Никаких переключений посередине. Никаких npm install 16 раз.

Аналогия с хирургом. Протокол операции жёсткий: разрез, доступ, основной этап, контроль, ушивание. На каждом этапе хирург принимает решения свободно, исходя из того, что видит. Но никто не даёт хирургу свободу начать операцию с ноги, когда оперируют сердце.

Результаты

Один движок. Конфигурационные файлы для каждой роли. Добавить нового сотрудника — написать конфиг, не переписывать систему.

ИИ-Сотрудники (структурированный подход):

Фрилансер 2.0 — 61 задача, 1 ошибка (сбой провайдера), 1,6%. Средний расход 250 токенов. На agent loop тот же агент: 11 задач, 3 ошибки, 27,3%, 338 токенов. Ошибок в 17 раз меньше, расход на треть ниже.

Бухгалтер 2.0 — 23 задачи, 0 ошибок. 382 токена на задачу. Пишет Python-скрипт, считает, сам создаёт тесты и проверяет свои расчёты. Агент на свободном цикле этого не делает, потому что у него нет этапа «проверь себя».

Сметчик 2.0 — 18 задач, 0 ошибок. 598 токенов. Парсит Excel со сметой, сравнивает с рыночными ценами региона, находит завышения и дубли. Старый сметчик на agent loop: 8 задач, 1 ошибка, 12,5%, 1 571 токен. Втрое дороже и нестабильный.

Документовед — 5 задач, 0 ошибок. 119 токенов. 9 из 10 заложенных рисков в договоре за 3 минуты. 23 различия между двумя версиями документа. Приоритизация: критическое красным, среднее жёлтым, информационное синим. Вердикт: «Не подписывайте без правок».

Аналитик 2.0 — 238 токенов. Автоопределение типа данных по колонкам. Нашёл спад 24,4% в тестовых данных. Построил графики через matplotlib. Не угадал, а посчитал.

Агент разработки 2.0 (та же архитектура, применённая к созданию сайтов):

Лендинг для пиццерии — 4 минуты, 19 шагов, 480 токенов, 0 ошибок. Полностью рабочий сайт с меню, ценами, формой заказа и фотографиями. Для сравнения: старый agent loop тратил 196 шагов в среднем на ту же задачу. В десять раз больше.

Лендинг для пиццерии. 4 минуты. 19 шагов. 0 ошибок.
Лендинг для пиццерии. 4 минуты. 19 шагов. 0 ошибок.

Сводная таблица из продакшена:

Задач

Ошибок

Процент

Шагов на задачу

Agent loop (старый)

69

5

7,2%

196

Agent loop (анализ 10 000 шагов)

51 сессия

19 с ошибками

37%

196

Структурированный подход (ИИ-сотрудники)

108

1

менее 1%

определяется ролью

Структурированный подход (разработка)

6 сессий

0

0%

19,5

Одна и та же модель. Одни и те же инструменты. Разница только в архитектуре.

Охранник, контент-менеджер, Фрилансер 1.0, Сметчик 1.0 - работают по архитектурному принципу Agent loop.
Охранник, контент-менеджер, Фрилансер 1.0, Сметчик 1.0 - работают по архитектурному принципу Agent loop.

Почему это не «ещё один фреймворк»

Каждую неделю выходит новый фреймворк для ИИ-агентов. LangChain, CrewAI, AutoGen, ещё десять. Все обещают «просто опиши задачу». Все работают нестабильно, потому что внутри тот же agent loop.

Здесь другой подход. Не «дай модели свободу и надейся». А «дай модели рельсы и свободу мышления внутри рельсов».

NASA 70 лет пыталась создать двигатель Aerospike. Компания LEAP 71 дала ИИ спроектировать его, но с жёсткими параметрами: тяга, топливо, давление, охлаждение. Двигатель сработал с первого раза. Свобода мышления внутри жёстких ограничений.

MIT говорит: 95% пилотов генеративного ИИ не достигают результатов. Думаю, причина в том, что компании дают модели слишком много свободы. «Вот задача, разберись сам». Модель разбирается. Иногда правильно. Иногда нет. 75 на 25.

Конвейер Форда. Протокол хирурга. Чеклист пилота. Методологии, которым сто лет. Просто теперь на конвейере стоит не человек, а LLM.

Итого

ИИ-агенты в их текущем виде — автономные, свободные, «думающие сами» — не работают в продакшене. OpenClaw это подтверждает: 346 000 звёзд на GitHub, лобстер-мерч, крипто-токены, конференции на два города. А 4 апреля Anthropic отрезала 135 000 пользователей от дешёвого доступа, потому что экономика не сходилась. Стабильного демо так никто и не показал.

10 000 шагов моего собственного agent loop подтверждают: 37% сессий с ошибками, 23% ресурсов на overhead, npm install 16 раз за сессию, миллион токенов на один лендинг. Я заплатил за этот урок ощутимую сумму и два месяца работы. Но получил данные, которых нет ни у кого.

Работают ИИ-сотрудники: предсказуемые, контролируемые, с жёсткой структурой и свободным мышлением на каждом этапе. 108 задач, 1 ошибка, менее 1%. Лендинг за 4 минуты и 19 шагов вместо 196. Та же модель, те же инструменты, другая архитектура.

Не на бенчмарке. Не в демо. В продакшене с реальными пользователями. Скриншоты выше — из реальной админ-панели, не из Figma.

Комментарии (20)


  1. Oeaoo
    07.04.2026 12:26

    По сути согласен. Кстати, для себя я пока нащупал идеальную метафору - подруливание. Нейромопед. Он-то шпарит дай бог, но навыки и знания для тонкой корректировки направления по всей траектории пути все равно на нас. И очень легко приехать не туда, заехать в болото или кювет, сжечь весь бензин или даже попасть в нейро-ДТП)


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Именно. Поэтому мы убрали руль и поставили рельсы!


  1. undersunich
    07.04.2026 12:26

    А я недавно после 4 часов непрерывного vibe-coding поймал себя на мысли что он(они) не так пишут код как я привык - он(они) пишут как ... индусы !!! Ибо обучен на гигатоннах индусского кода. Вот вам и ответ почему так


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Именно поэтому в статье раздел про статистическое смещение. Агент выбирает Next.js для одностраничника не потому что это лучший стек, а потому что в обучающих данных он встречается чаще. 363 шага вместо 48. Решение - не давать агенту выбирать стек. Система выбирает за него на первом этапе.


  1. PPPeter
    07.04.2026 12:26

    Иногда думаю, что руководители специально стараются поставить задачу самым общим образом, чтобы сотрудник сделал "не так". Чтобы было где проявить свои навыки крика и ора. Потому что если поставить задачу грамотно, то и результат будет с первого раза. Так что и без ИИ это классическая проблема мышления. ИИ даже сложнее, чем человеку, он обучен на слишком большом массиве данных и угадать, что имел ввиду пользователь не может.

    Исхитрись-ка мне добыть То-Чаво-Не-Может-Быть!
    Запиши себе названье,
    Чтобы в спешке не забыть!
    А не выполнишь к утру —
    В порошок тебя сотру,
    Потому как твой карахтер
    Мне давно не по нутру!
    Так что неча губы дуть,
    А давай скорее в путь!
    Государственное дело —
    Ты ухватываешь суть?


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Именно. Поэтому решение - не учить агента угадывать, а не давать ему задачу "добудь То-Чаво-Не-Может-Быть". Разбить на этапы, на каждом - конкретное задание. Федот справится, если знает куда идти.


    1. Dhwtj
      07.04.2026 12:26

      Иногда думаю, что руководители специально стараются поставить задачу самым общим образом, чтобы сотрудник сделал “не так”. Чтобы было где проявить свои навыки крика и ора:

      (П)рапорщик достает (С)олдата:

      П:- Почему в шапке, почему без шапки.

      (М)айор подзывает П.

      М:- Ну что такое? в шапке, без шапки, одно и то же… Ты лучше попроси водички, а когда С принесет тебе стаканчик воды ты спросишь: Почему не газированная?

      На следующий день:

      П:- Принеси-ка мне воды

      С:- Тов. прапорщик, а Вам какой воды: простой или газированной

      П: (секундное замешательство) Почему в шапке?!


      1. PPPeter
        07.04.2026 12:26

        Слышал его в варианте. Попроси прикурить. Даст спички, почему не зажигалка. Даст зажигалку, почему не спички. Подзывает солдата:
        - Дай прикукурить.
        - А вам спички или зажигалку.
        - Да хоть кирогаз купи, а пиз..лей ты всё равно получишь.


  1. flaviy75
    07.04.2026 12:26

    Мне кажется чуть надуманная проблема, сейчас skills можно всё решить.


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Skills - это инструменты. Проблема не в инструментах, а в том, кто решает когда и какой использовать. В моих данных агент с теми же инструментами ошибался в 37% сессий. После смены архитектуры - менее 1%. Инструменты не изменились. Изменилось кто управляет процессом.

      P.S. Про skills стоит знать:

      — 341 из 2 857 навыков в ClawHub (12%) оказались вредоносными: кейлоггеры, Atomic Stealer (Koi Security)

      — Ещё 283 навыка (7.1%) сливали credentials в открытом виде (Snyk)

      — 135 000 открытых инстансов без аутентификации в 82 странах (Bitsight)

      — 9 CVE за четыре дня, одна на 9.9/10 (SecurityScorecard)

      — Мейнтейнер OpenClaw Shadow в Discord: "if you can't understand how to run a command line, this is far too dangerous of a project for you to use safely" (Wikipedia)

      — Cisco подтвердила скрытую эксфильтрацию данных и prompt injection через сторонние навыки (Wikipedia)

      Осторожнее с "всё можно решить skills".


  1. amcured
    07.04.2026 12:26

    Вся магия Claude Code не в grep и не в памяти между сессиями. Магия в модели, которая понимает контекст на миллион токенов.

    А есть какие-то подкрепления этому тезису, или это Рабинович напел?


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Не Рабинович, а Anthropic. Claude Opus поддерживает контекстное окно в 200K токенов (документация Anthropic), Claude с Extended Thinking — до 1M. Локальные модели, на которых работает OpenClaw без Claude: Llama — 8-128K, Qwen — 32-128K, DeepSeek — 64-128K. Разница в 8-15 раз.

      На практике это означает: Claude Code держит в голове весь проект целиком. Локальная 7B-модель забывает начало файла, пока дочитывает конец. Отсюда и "руль от Ferrari на Ладе" — интерфейс тот же, а модель под капотом не тянет.

      Подкрепление из моих данных: 34 раза агент упирался в лимит токенов, максимум 1 069 729 токенов на одну задачу. А вот что происходит с Claude Code даже на Opus ($200/мес подписка Max):

      Request timed out. Три раза. "Ты не висишь? Я не вижу прогресса!" На Sonnet — зависания и таймауты, пришлось переключить на Opus(1M). На Opus — работает, но всё равно тормозит и теряет соединение. Архитектура agent loop компенсирует слабость мощностью (и ценой) модели. Но даже самая мощная модель не спасает от архитектурных проблем.


      1. amcured
        07.04.2026 12:26

        На практике это означает: Claude Code держит в голове весь проект целиком. 

        Смешно. А если проект на 30М строк?

        Вообще-то я спрашивал, откуда растут ноги у утверждения «магия Claude Code не в grep и не в памяти между сессиями. Магия в модели […]». Ваши личные наблюдения — это и есть «Рабинович напел» в чистом виде.

        Размер контекстного окна — это хорошо, но я надеялся увидеть какое-то доказательство (хотя бы подтверждение) того, что хороший RAG его не заменит. (Аутентичный антропиковский раг — говно, поэтому самое уязвимое место, скорее всего, именно там, а не в размере окна.)


  1. ivchatov309
    07.04.2026 12:26

    Заучит как вполне логичное развитие меты всех этих бесконечных инфраструктур вокруг моделей, у меня в последние дни что-то такое же назревали в голове. А ссылочка на репу-то будет?


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Репа закрытая - это коммерческий продукт, не open source. Но попробовать можно на vibepilot.ru, 2 000 бесплатных токенов при регистрации. Архитектура описана в статье ровно на том уровне детализации, который я считаю правильным: достаточно чтобы понять подход, недостаточно чтобы воспроизвести за вечер.


      1. ivchatov309
        07.04.2026 12:26

        А рефералка будет мне за такой удачный комментарий?)

        Зарегаюсь, спасибо.


  1. Dkislits
    07.04.2026 12:26

    Привет. Я бы все-таки поискал способ заставить его работать. У меня клешня кодом не занималась, занималась орг деятельностью. Просроченные задачи в Битрикс, Jira, пропущенные сообщения в группах и в почте.
    Было удобно. Как восстановить пока не разобрался. Вроде openAI можно по Oath


    1. ignatenkosergey Автор
      07.04.2026 12:26

      Отличный кейс. Для мониторинга и уведомлений agent loop подходит лучше всего - задачи простые, однотипные, без цепочек решений. Проблемы начинаются когда агенту дают свободу в сложных задачах: написать код, создать сайт, проанализировать документ. Там 37% ошибок из моих данных. Для восстановления: OpenAI API + webhook в Telegram/Max может заменить OpenClaw для таких задач дешевле и надёжнее.


      1. Dkislits
        07.04.2026 12:26

        Спасибо! Сегодня подсказали, что GLM 5.1 все работает. Подключил - действительно работает. Почти не вижу разницы.


        1. ignatenkosergey Автор
          07.04.2026 12:26

          Отлично! GLM 5.1 - хороший выбор для мониторинговых задач, и значительно дешевле Claude. Для простых сценариев (проверка задач, уведомления, парсинг) разница в качестве модели минимальна. Проблемы начинаются на сложных цепочках - там уже важна архитектура, а не модель. Удачи с настройкой!