OpenClaw — Node.js. Это значит: установи Node, установи npm, склонируй репо, npm install, подожди пока 800 МБ node_modules скачается, настрой конфиг, запусти. Если что-то сломалось — разбирайся с версиями Node, конфликтами зависимостей, нативными модулями.
Кто-то посмотрел на это и решил переписать всё на Go. Результат — GoClaw: один бинарный файл на 35 МБ, который скачал, дал права на запуск и работаешь. Никаких зависимостей, никакого рантайма, никаких node_modules.
Разбираю, что внутри и имеет ли это смысл.
Что такое GoClaw
GoClaw — это реимплементация OpenClaw на языке Go. Не форк, не обёртка — переписано с нуля. Мультиагентный AI-шлюз, который подключается к мессенджерам (Telegram, Discord и другим) и предоставляет доступ к LLM-моделям.
Ключевые характеристики:
Один бинарник, ~35 МБ. Скачал — запустил
11+ LLM-провайдеров (OpenAI, Anthropic, Google, DeepSeek и другие)
5 каналов связи (Telegram, Discord и ещё три)
Мультиагентная система с командами, делегированием и оркестрацией
Канбан-доска для управления задачами агентов
Работает локально
Зачем переписывать на Go
Это не просто «сменили язык ради хайпа». У Go есть конкретные преимущества для такого типа приложений:
Один бинарник. Go компилируется в один статически линкованный файл. Нет рантайма, нет зависимостей, нет виртуальной машины. Для инструмента, который нужно быстро развернуть на VPS или даже на Raspberry Pi — это огромный плюс. Скачал бинарник, chmod +x, запустил. Всё.
Сравните с OpenClaw на Node.js: Node.js рантайм (~70 МБ), npm install (~500-800 МБ node_modules), возможные конфликты нативных модулей, разные версии Node на разных системах. Для одного-двух проектов — терпимо. Для быстрого деплоя на минимальном железе — боль.
Потребление памяти. Go-приложение с аналогичной функциональностью потребляет в 3-5 раз меньше RAM, чем Node.js. Для AI-шлюза, который висит в фоне 24/7 и ждёт сообщений из мессенджеров, это существенно — особенно на дешёвых VPS с 512 МБ-1 ГБ памяти.
Конкурентность из коробки. Горутины в Go — это не костыль, а базовый примитив языка. Мультиагентная система, где несколько агентов работают параллельно, делегируют задачи друг другу и оркестрируют результаты — идеальный use case для горутин и каналов.
В Node.js асинхронность — через event loop и промисы. Работает, но когда нужно параллельно обрабатывать десятки агентных цепочек, каждая из которых ждёт ответа от API — Go справляется элегантнее.
Простота деплоя. Docker-образ Go-приложения — это scratch/alpine + бинарник. Итого: 40-50 МБ. Docker-образ Node.js приложения — node:slim + node_modules + код. Итого: 300-500 МБ. На слабом канале или при частых обновлениях разница ощутима.
Мультиагентная архитектура
Интересная часть GoClaw — система команд агентов. Вместо одного агента, который делает всё последовательно, здесь несколько специализированных агентов работают параллельно:
Архитектор — проектирует структуру решения
Кодер — пишет код
Тестировщик — ищет баги
Ревьюер — проверяет качество
Задачи распределяются через канбан-доску. Вы ставите задачу верхнеуровнево — «добавь авторизацию через OAuth» — и система сама декомпозирует её, распределяет между агентами и собирает результат.
На практике качество такой оркестрации зависит целиком от модели. Если под капотом Claude Opus или GPT-4o — декомпозиция будет разумной. Если модель послабее — агенты начнут путаться, дублировать работу друг друга и зацикливаться. Это ограничение не GoClaw, а любой мультиагентной системы в 2026 году.
Стоит ли переходить с OpenClaw
Честный ответ: зависит от ситуации.
GoClaw лучше, если:
У вас слабый VPS (1 ГБ RAM, медленный диск)
Вам важна простота деплоя — один файл, никаких зависимостей
Вы не пользуетесь экосистемой плагинов OpenClaw (ClawHub Skills)
Вам нужна стабильная работа в фоне 24/7
OpenClaw лучше, если:
Вы уже вложились в экосистему Skills и плагинов
Вам нужна максимальная гибкость и кастомизация
У вас нормальный сервер с достаточными ресурсами
Вам важно активное сообщество (180K+ звёзд vs молодой проект)
Проблемы
Молодой проект. Мало звёзд, мало пользователей, мало тестирования в продакшене. В OpenClaw баги находят и фиксят тысячи людей. Здесь — пока единицы.
Экосистема. OpenClaw — это не только агент, это экосистема. ClawHub с тысячами skills, MCP-серверы, интеграции с IDE. У GoClaw ничего этого нет.
Совместимость. Skills из OpenClaw нельзя просто перенести — это другая платформа с другим форматом.
Go vs Node.js для AI-агентов: общий вывод
GoClaw — хорошая демонстрация того, почему Go набирает популярность в инфраструктурных инструментах. Один бинарник, минимальное потребление ресурсов, нативная конкурентность — для long-running сервиса, который висит в фоне и обрабатывает запросы, это правильный выбор.
Node.js выигрывает в экосистеме и скорости прототипирования. npm-пакетов больше, разработчиков JavaScript больше, итерация быстрее.
Для AI-агента, который нужно один раз настроить и забыть — Go. Для агента, который активно развивается и обрастает плагинами — Node.js.
Репозиторий: github.com/nextlevelbuilder/goclaw
Что думаете про тренд переписывания Node.js-инструментов на Go/Rust? Оправдано или карго-культ? У кого есть опыт деплоя AI-агентов на минимальном железе?
Комментарии (17)

puchuu
07.04.2026 16:56Живой проект vs мертвый форк (или реимплемент), действительно что же выбрать?

morheus9
07.04.2026 16:56Причем реимплемент даже не лучший, есть как минимум аналог на 27к звезд. Причем с работающими скиллами

STIZZ
07.04.2026 16:56Господа, кто больше разбирается, что скажете по поводу:
picoclaw VS zeroclaw?
https://github.com/sipeed/picoclaw
https://github.com/zeroclaw-labs/zeroclaw

VitalyOborin
07.04.2026 16:56На Go его уже переписывали https://github.com/sipeed/picoclaw . Чем ваш форк лучше, какую проблему решает, которую не решают остальные 70 тысяч форков?

atomlib
07.04.2026 16:56Горутины в Go — это не костыль, а базовый примитив языка.
Это ограничение не GoClaw, а любой мультиагентной системы в 2026 году.
Не форк, не обёртка — переписано с нуля.
Это не просто «сменили язык ради хайпа». У Go есть конкретные преимущества для такого типа приложений
OpenClaw — это не только агент, это экосистема.
Проблема сгенерированных статей — это даже не вот эти надоедливые приёмы. И не 33 тире в тексте на 3 минуты чтения (по тире каждые десять секунд, кстати говоря). Проблема — это вот эти странные несостыковки и непонятно какие галлюцинации:
11+ LLM-провайдеров (OpenAI, Anthropic, Google, DeepSeek и другие)
По той же ссылке, что у вас даётся, указано, что их более 20. В документации указывается 22.
5 каналов связи (Telegram, Discord и ещё три)
Там же указано число 7.
Один бинарник, ~35 МБ. Скачал — запустил
В репозитории в README указано 25 МБ или 36 МБ в сборке с OTel.
180K+ звёзд
Кто и когда писал статью? У OpenClaw сейчас 351 тысяча звёзд.
Никаких зависимостей, никакого рантайма, никаких node_modules.
Да разве? Открываю README: в некоторых случаях нужны Go версии выше 1.26, PostgreSQL 18 с расширением pgvector.
Это значит: установи Node, установи npm, склонируй репо, npm install, подожди пока 800 МБ node_modules скачается, настрой конфиг, запусти.
Почему здесь приводится самый болезненный способ? Очень карикатурно. В действительности рекомендованный способ установки — это
npm install -g openclaw@latest.Архитектор…
Кодер…
Тестировщик…
Ревьюер…
Просто не знаю, откуда это взялось. В лучшем случае натыкаюсь на слово
lead agentгде-то в документации проекта.Самое опасное — весь текст никак не пытается объяснить, что есть ещё один проект с таким же именем и схожими задачами по адресу goclaw.org и с репозиторием https://github.com/roelfdiedericks/goclaw. Насколько вижу, они независимы.
Также в тексте нет попыток хоть немного поразмыслить своей головой. Это просто пересказ чьих-то ещё заявлений. При этом верить им можно далеко не всегда. К примеру, GoClaw почему-то утверждает, что целевая платформа OpenClaw — Mac mini за 600 долларов и хотя бы 1 ГиБ ОЗУ. Между тем реально у OpenClaw минимальное требование — 2 ГиБ ОЗУ, желательно 4, и прямым текстом в FAQ говорится, что никакой Mac mini не нужен. Вполне возможно указать, что римейк откровенно очерняет оригинал.

WhiteBehemoth
07.04.2026 16:56я начал было подобный коммент писать, но бросил. Хотя так подробно всё равно бы не получилось.
По сути статья - мусорная, похоже на выдержку из личного чата "стоит ли мне переходить с OpenClaw".
Если уж автор хотел поделиться, можно было просто новость/пост сделать и дать ссылку на readme на вполне хорошем русском. https://github.com/nextlevelbuilder/goclaw/blob/dev/_readmes/README.ru.md

rebug
07.04.2026 16:56Жаль, нету кармы для минуса. Так неприятно, когда так нагло с помощью ии пишут статьи с ошибками и водой

morheus9
07.04.2026 16:56Не совсем понял зачем тогда этот go-claw, если нельзя скилы подрубать... это ж типа чуть ли не важнейший способ расширения ...

bossalex
07.04.2026 16:56Ничего не понятно go - open clav, но как интересно 35 mb binarnic, так в нём что защит целый фреймворк или просто статичная LLM c функциями генерации кода, тестирования, сборки и написания документации? Если что не пинайте сильно я не дока в вайб кодинге, я всё делаю по старинке, просто ингда пишу только для генерации песен из текста!)

AnruKitataze
07.04.2026 16:56Да ничего там не зашито. Очередная попытка переписать с помощью ИИ рабочий популярный проект на что-то хайповое. Внимания не стоит - таких форков вагон.
Ллм там никакой не вшили, это немного не так работает. Но зачем вообще какой-то непонятный проект использовать во время, когда у нас то тут, то там Supply Chain Attack? Не знаю
Статью тоже через ИИ нагенерили, качество соответственное

Konovalovrg
07.04.2026 16:56Эволюция)) ждем дистрибутив в экзешнике ))) а то домохозяйки не хотят в докере
alexyr
Конкурентность из коробки? Параллелизм или многопоточность… снова учёный изнасиловал журналиста
m68k
Конкурентность есть конкурентность, параллелизм и многопоточность имеют другие смысловые оттенки. Параллелизм - это про параллельный запуск кода (на нескольких ядрах), многопоточность про несколько потоков (одного процесса). Конурентность - про независимое исполнение кода
WLMike
Пайка тоже изнасиловали видимо https://go.dev/blog/waza-talk
Misteg
Да статья написана с помощью ChatGPT. Эмодзи только удалены.
Dukeru
Прям в глаз бросилось