Статья о том, с какими сложностями могут столкнуться пользователи, установившие ИИ-агента OpenClaw, построенная на личном опыте. Спойлер: монстр под капотом, 81 млн токенов за три дня, конфликты с сервером и почему он не просто бот, а ниндзя-одиночка.

OpenClaw сейчас - это "новое черное" в ИИ-агентах. 330К+ звезд с ноября 2025 года - даты первого релиза - не дадут соврать. Хабр нам в помощь и вот множество восторженных или профессионально-сдержанных, но позитивных статей о его пользе и легкости. Тут и "ванильные" туториалы с тезисом - "установил, запустил, он сам открыл браузер и заказал пиццу", и категория со статьями для инженеров, ну и, конечно, хайповые обзоры класса "Убийца ChatGPT?". Но для неопытного глаза это все представляется стойкой позитивной реакцией. Есть нюансы, но в целом, все довольны. Значит - решено, ставим, ведь все побежали, ну и я побежал.
Честный опыт эксплуатации
Я - не айтишник совсем. Интерес к ИИ - очень прагматичный. Хочу бесплатно, без сложных технических заморочек, и чтоб помогал. Работаю на бесплатных ресурсах и open-source решениях. Похоже, OpenClaw идеально подходит. Имея под рукой веб-терминальные ИИ-шечки, легко кидаюсь в пучину установки. У меня есть небольшой VDS сервер (32 ГБ, 6 процессоров), на котором висят несколько сайтов на React, развернуты PostgreSQL, n8n и другие сервисы, включая пару незатейливых телеграмм-ботов на самописном Питоне (созданных с помощью команд "копировать" и "вставить" из чатов с ИИ). Плавали, знаем, поехали!
npm install -g openclaw@latest openclaw onboard
Первая ошибка: поселить монстра на боевой сервер
Первая установка OpenClaw проходит быстро, что-то (нужно признать, в достаточно удобном меню) ввел ошибочно - не тот токен телеграм-бота - и вот тут началось реальное мое знакомство с системой. OpenClaw оказался не просто ботом, а сложным монстром с кодом более чем на 20 000 строк. И он категорически не терпел соседей. Мы все - другие ИИ-боты, веб-терминальные ИИ-шечки и я - вспотев, отключали один за другим порты, удаляли и устанавливали систему несколько раз. Но, даже после удаления, OpenClaw оставлял «призраков» в systemd, в конфигах, в папке .openclaw, которые приходилось вычищать вручную. Стандартный подход «удалил и переустановил» не работал: система каким-то образом помнила старые настройки. В итоге, только на переписку с разными ИИ (ChatGPT, Kimi2, DeepSeek), пытаясь понять, где я ошибся, я потратил около миллиона токенов. Вся эта эпопея уместилась в почти 500+ страниц вордовского документа, который я собрал на память.
Вторая ошибка: попытка встроить «дирижера» в оркестр
У меня уже была налаженная связка: Docker, PostgreSQL, n8n в роли оркестратора, простые Telegram-боты. Мне пришла мысль сделать OpenClaw ещё одним инструментом. Что, если я создам навыки и буду вызывать его через вебхуки? Схема такая отзывалась правильным вайбом и выглядела очень предсказуемо. И база тут есть, и режим оркестации. Но OpenClaw ответил категорическим отказом. Он даже не пытался интегрироваться. При любой попытке засунуть его в оркестратор он либо падал с ошибками аутентификации, либо игнорировал внешние вызовы. Оказалось, что это не агент, который выполняет подзадачи — это полноценный и качественный самостоятельный сам-себе-режиссер. Пробовал четыре подхода:
MCP (требовал динамического токена, который n8n не мог получить),
вебхуки (запросы принимались, но не передавались агенту),
прямой вызов Python-скрипта (агент выполнял команду, но не возвращал результат),
создание навыка (ошибка аутентификации).
Возможно, настоящие айтишники все это починили бы с легкостью, но я не программист. И мне OpenClaw категорически отказался подчиняться. Вывод для себя делаю неоднозначный: передо мной не просто бот, а самодостаточная система.
Третья ошибка: Подключаем локальные ИИ
В мастере установки OpenClaw "из коробки" позволяет установить и подключиться к Ollama - решению, позволяющему работать с локально развернутыми моделями ИИ. У меня на сервере крутилась легкая модель phi3:mini, которая отлично справлялась с простыми чатами. Но OpenClaw отверг её с ошибкой: «registry.ollama.ai/library/phi3:mini does not support tools».
Оказалось, что для работы инструментов нужна модель с поддержкой function calling. Лёгкие модели (gemma2:2b, phi3:mini) этого не умеют. Про такое я нигде не читал, и на выяснение этого и попытки подключения трех маленьких моделей ушло 4 часа.
Код проверки и ответ:
curl http://localhost:11434/api/chat -d '{ "model": "phi3:mini", "messages": [{"role": "user", "content": "Hi"}], "tools": [{"type": "function", "function": {"name": "test"}}] }'
{"error":"registry.ollama.ai/library/phi3:mini does not support tools"}
Модель |
Размер |
Поддержка инструментов |
Статус |
|---|---|---|---|
gemma2:2b |
1.6 GB |
❌ |
Не подходит |
phi3:mini |
2.2 GB |
❌ |
Не подходит |
gemma3:4b |
3.3 GB |
❌ |
Не подходит |
qwen2.5:7b |
4.7 GB |
✅ |
Подходит, но требует GPU |
llama3.1:8b |
4.9 GB |
✅ |
Подходит, но требует GPU |
qwen2.5-coder:7b |
4.7 GB |
✅ |
Подходит, но требует GPU |
Подходящая для OpenClaw модель qwen2.5:7b требовала для комфортной работы по комментариям разработчика не менее 8–16 ГБ RAM. Очистив полностью кэш (уже в который раз), добиваюсь, что сервер работает только с Ollama. Результата нет. Мой сервер с 32 ГБ RAM тянет её со скрипом. Простой ответ на «Привет» занимает в терминале более 5 минут, а при запуске других сервисов всё падало с ошибкой о нехватке памяти.

Детальное исследование позволило выяснить, что в принципе qwen2.5:7b работает на обычных процессорах, но плохо и долго, а вот переход на GPU - все изменит, но нужно помнить, что для нормальной работы ему надо х2 или даже х2,5 к своему весу - то есть слабым сервером не обойдешься и нужно не мене 12 Гб GPU. Вывод по железу (про которое я даже и не думал, начиная установку) - OpenClaw требует отдельного, мощного сервера с GPU (V100 или RTX 4090), аренда которого начинается от 30 тысяч рублей в месяц.
Четвертая ошибка: купить токены
Поняв, что локально всё сложно, я прямо на сайте своего VDS-провайдера прикупил 5 млн. токенов DeepSeek. Тариф гласил:
до 5 000 диалогов, подходит для активных интеграций, анализа данных, генерации контента.
Прекрасно! С фото или видео пока не будем работать, просто текст. Кстати, это моя первая покупка токенов. До этого обходился бесплатными лимитами и маленькими локальными моделями. Настроил OpenClaw, подключил бота. Утром открыл веб-терминал и увидел, что OpenClaw потратил 5 миллионов токенов за несколько часов. И это при том, что я не задал ему ни одной осмысленной задачи! Он просто «жил»: проверял доступность моделей, перебирал профили, фейлился и снова вызывал API. По тарифу 120 руб./млн токенов это 600 рублей за одну ночь просто за то, что бот «жил».

Хорошо, пойдем по другому, OpenRouter нам поможет! Я решил, что проблема в качестве DeepSeek, и переключился на OpenRouter, выбрав две бесплатные модели: nvidia/nemotron-3-super-120b-a12b:free и trinity-large-preview. Настроил, запустил три задачи: «напиши статью», «проанализируй документ», «найди в интернете информацию». Через три сессии (суммарно около 4 часов работы) OpenClaw сжёг 76 000 000 токенов. По тому же тарифу DeepSeek это было бы 9120 рублей. По тарифу OpenRouter (в среднем 0,3$ за млн) — около 22 000 рублей (у меня был бесплатный тариф, и он закончился). OpenClaw оказался не просто затратным, а буквально «токенопожирателем». И это при том, что он не генерировал гигабайты текста, а в основном производил свои внутренние проверки.

Это также подтверждается и общей статистикой сервиса. OpenClaw "жрет" в 10 раз больше Claude и в 100 раз больше другого агента.

Итог: OpenClaw — это ниндзя
Читая статьи на Хабре, я верил, что OpenClaw станет мне верным помощником. В обзорах его рисуют дисциплинированным бойцом, но на деле он — одиночка-наемник. OpenClaw — это не помощник. Это ниндзя.
Почему ниндзя? Потому что он получает задание, уходит в тень и работает автономно. Всегда решает задачу. В этом его суперсила. Но быть ниндзя — значит быть одиночкой. Он не терпит рядом никого другого (n8n, базы данных), он работает в тени. Его нужно обучать на собственном «додзё» (на своем сервере). И мой опыт нескольких дней работы с OpenClaw приводит к несколько неожиданному выводу. OpenClaw — это не просто «хороший» или «плохой» ИИ-бот. OpenClaw реально справляется со всем, до чего может дотянуться: браузер, голос, любые мессенджеры, сложные цепочки действий. Ни какой другой бот в моей практике не обладал такой гибкостью. Так, в одном из тестов моих он поднял mesh-сеть из 4 устройств только по двум фото - задней крыше основного роутера и договора с провайдером. Но дело даже не в этом. Это бот, который меняет реальность из-за своей способности стать полноценным промежуточным звеном между ИИ-средой и нашим физическим миром. В этот момент и наступает разрыв в ожиданиях. Мы только привыкли платить за модели ИИ по токен-тарифам, а теперь нас приучают нести устойчивые затраты на поддержку инфраструктуры вот за эту новую связь. Формально-бесплатное решение с супер-функционалом требует либо бесконечный поток токенов, либо серьёзного "железа", за которые нужно платить. И тут встает уже другй вопрос - есть ли готовность на такие затраты - 30-50 тыс. руб. в месяц (или на токены и на собственную инфраструктуру с GPU) и насколько такая цена конкурента с другими, более функциональными ботами, решениями или даже встроенными функциями в ИИ-моделях.
Комментарии (12)

Atomax
27.03.2026 06:55Могу поделиться своим опытом: более месяца у меня на домашнем ПК в VM круглосуточно крутится Openclaw. Тоже живёт, есть несколько cron задач, есть skill самосовершенствования. Но прямо миллионы токенов он у меня не сжигает, думаю тут дело в правильной изначальной настройке. Я с самого первого дня переписал стандартные .md файлы, сократил их в 2-10 раз, чтобы контекст искусственно не раздувался при каждом запросе. Также я поставил litellm и настроил несколько уровней fallback, при этом первой в обороне стоит локальная модель qwen 3.5 27b, запущенная на моем ПК с RTX 5070 ti, прекрасно работает на несложных задачах и не прожигает кредиты. Были случаи, когда модель переключалась на платную из-за ошибки локального сервера lmstudio, но и в этом случае я потратил максимум 3-4 лишних доллара, потому что настраивал каскад моделей, которые были либо бесплатными, либо очень дешёвыми, как например grok 4.1 fast. Дорогие модели у меня подключаются только в случае сложной задачи в рамках отдельного субагента

Shraikru
27.03.2026 06:55А что является триггером переключения на другую модель? Бот сам понимает, что надо переключаться?

Atomax
27.03.2026 06:55Сам Openclaw не умеет переключать модели в одной сессии, насколько мне известно, может только запустить сабагента для конкретной задачи, в котором будет прописана другая модель. Для этого очень четко нужно прописать в agent.md, что если задача, которую ставит хозяин, попадает под категорию Кодинг, например, то запускай субагента с моделью для кодинга. В рамках стандартной сессии же fallback у меня организован в litellm и там есть несколько вариантов триггеров - по latency, по размеру контекстного окна, даже по смыслу запроса. Я не стал сильно мудрить, сделал микс latency и контекстного окна. Т.е. если запрос относительно небольшой и локальный litellm доступен - его обрабатывает локальная модель. Как только запрос превышает установленный мной лимит по токенам, то переходим на бесплатные внешние модели, если они недоступны или уперлись в ratelimit - подключаем уже платные. Для Opneclaw же это будет выглядеть, как будто он обращается к одной и той же условной default-litellm-model

Romatio
27.03.2026 06:55А чем он занимается? Полезным?

Atomax
27.03.2026 06:55Пока ничем суперполезным, если честно. Проверяет почту (может читать и отмечать, как прочитанное, но не может удалять), отслеживает посылки и сообщает об изменении статуса. Работаю над тем, чтобы он проводит для меня глубокие исследования по типу Perplexity Computer, который, надо признаться, очень хорош, но дороговат. Ислледовать - исследует, но глубины пока не хватает =)

Voodoo_media Автор
27.03.2026 06:55Да, с ней можно справляться, но для этого надо знать методы. (Спасибо за ваш коммент, кстати, я все записал и применил уже))) Я говорил про то, что система позиционируется как "Бот из коробки", а по факту - это вполне себе серьезный деплой замороченной системы, который могут реализовать люди, которые разбираются достаточно глубоко, а не просто на уровне "развернуть из гитхаба".

Atomax
27.03.2026 06:55На здоровье! Кажется сам Штайнберг писал, что если вы с командной строкой на вы, то это инструмент не для вас) Если хочется Бот из коробки, то уже есть Kilo Claw, Kimi Claw, тот же Perplexity Computer, но за удобство нужно платить =)

SlavikF
27.03.2026 06:55qwen2.5? Это не просто старая, это уже древняя модель...
Есть же маленькие модели (2B, 4B) серии qwen3.5 - чего их не использовать?

Voodoo_media Автор
27.03.2026 06:55Да, согласен. Но и те не встали, и qwen3.5 (пробовал уже) не встал. Все разворачивают эти модели на домашних и достаточно мощных компьютерах, а я пытался это сделать на виртуальном слабеньком сервере.
idutvuk
Было интересно читать как человеку, у которого руки не доходят его затестить самому. Вообще удивительно, что так мало отрицательных отзывов по openclaw при таком большом хайпе.
Вообще, планируются ли какие то решения проблемы, что он жрет миллионы токенов за простые задачи? Звучит как ошибка архитектуры для таких простых задач в мире, где все вышеописанное (кроме доставки пиццы i guess) можно сделать в терминале командой из stackoverflow
Romatio
Отрицательных много. Иногда пользователи даже радовались, что запускали, допустим, на расберри пай, и можно было просто вырубить, так как программно было не потушить. Скайнет на минималках.
Atomax
да все там нормально тушится простым /kill и /stop, просто люди в панике подтупливают) кстати в последних апдейтах кажется научили воспринимать человеческие please stop и don't do this как аналоги /stop