Началась новая эра – эра автономных агентов. Пользователь пишет запрос на естественном языке, и агент сразу решает поставленную задачу. Или не сразу. Но в таком случае он самостоятельно ищет способ получить недостающие навыки для выполнения запроса.

Привет, Хабр! Меня зовут Сергей, я занимаюсь исследованиями в MWS и руковожу небольшой, но классной командой инженеров-исследователей. Пока одни с помощью ИИ-агентов ищут способы разгрузить рутину, мы в MWS смотрим дальше и видим больше. А что, если дать ИИ-агенту не только «руки», чтобы бродить по сети и нажимать кнопки в интерфейсе, но и «тело»?
OpenClaw может физически взаимодействовать с реальным миром даже с помощью устройств «без мозгов». В этом материале разберём, как максимально просто развернуть такую систему самостоятельно. За помощь в подготовке спасибо Артёму @Artem_Lykov из центра R&D TechGov, который отвечает за направление Physical AI в MWS, и стажёру Дмитрию Ярчуку.
OpenClaw: в чём суть
Когда, казалось, все уже подустали от новостей про ИИ, новые LLM перестали вызывать ажиотаж и не создавали ощущения революционных изменений, в ноябре 2025 года open-source-проект OpenClaw встряхнул индустрию.
Разработчик Питер Штайнбергер создал оркестрационный слой, позволяющий ИИ автономно использовать компьютер. OpenClaw получает инструкции через мессенджер, разбивает их на процессы, выполняет сложные межприкладные задачи и сохраняет контекст.
При этом ИИ-агент может работать с любой LLM. Подробнее можно прочитать на сайте проекта.
История красивая, но есть нюанс.
Если установить OpenClaw на свой ноутбук, инструмент получает полный доступ к системе. Это большая дыра в безопасности. Гораздо надёжнее взять для такого дела виртуальную инфраструктуру в изолированной среде.
Сказано – сделано. Вместо того чтобы мучиться с Docker, собирать окружение вручную или часами штудировать документацию, теперь достаточно использовать готовый образ https://storage.mwsapis.ru/vm-template/images/openclaw-ubuntu-2404.qcow2 OpenClaw в MWS Cloud Platform и подключить к нему модель из MWS GPT Model Hub.
Инструкция по развёртыванию

Заходим в консоль, авторизуемся или регистрируемся, идём в раздел Compute и находим вкладку Образы.

Нажимаем кнопку «Создать».

Выбираем тип источника Образ по ссылке. Берём готовый образ по ссылке https://storage.mwsapis.ru/vm-template/images/openclaw-ubuntu-2404.qcow2 из объектного хранилища и добавляем URL в соответствующее поле. Нажимаем «Cоздать».

Возвращаемся в раздел Compute → Образы. Нажимаем три точки и выбираем Создать виртуальную машину.

Для наших задач вполне достаточно машины с 2 ядрами vCPU и 8 ГБ RAM.

Нажимаем «Далее» и переходим к настройке сети.
Затем создаём SSH-ключ для доступа к серверу и идём дальше.

Чтобы ВМ могла работать с ресурсами облака, на следующем шаге добавляем сервисный аккаунт.

Проверяем, что всё указали корректно, и нажимаем «Создать».

Теперь нам нужно организовать доступ к LLM по API.

В консоли перейдём к сервису MWS GPT Model Hub. Сервис позволяет за несколько минут подключать LLM к своим продуктам и системам без управления инфраструктурой моделей (подробнее читайте здесь). При первом запуске нажмите кнопку Активировать.

Нажимаем кнопку «Выбрать» и переходим к списку доступных моделей.

Выбираем модель и нажимаем «Создать». На следующем шаге нам предложат Создать сервисный аккаунт. Ссылка активна, переходим по ней.

Создаём сервисный аккаунт с ролью gpt.inferencer. Так мы сможем выполнять запросы к модели и просматривать информацию о деплойментах.

Переходим в сервисный аккаунт (IAM → Сервисные аккаунты → inference (пример)) и на вкладке «Ключи доступа» нажимаем «Создать», после чего выбираем вариант API-ключ.
OpenClaw позволяет подключать любой совместимый с OpenAI API. Для работы с нашим OpenAI API используется базовый URL https://gpt.mwsapis.ru/projects/<имя проекта>/openai/v1.
Вкалывают роботы, а не человек
Теперь, когда OpenClaw стал простым и безопасным, найдём ему применение.
В сети есть множество примеров в духе «OpenClaw, задеплой в прод вечером в пятницу 13-го». Но у нас в MWS под рукой оказался не самый умный робот Unitree G1, который умеет ходить, держать баланс, реагировать на окружение и… собственно, всё.
Команда MWS активно развивает VLA (Vision-Language-Action) модели, объединяющие зрение, язык, рассуждение и действия для прямого взаимодействия с физическим миром. Однако от этого направления робототехники пока не ждут быстрых результатов.
Сейчас гуманоидный робот управляется просто через физический пульт. Мы задались вопросом: что, если передать управление с этого пульта агенту на базе OpenClaw? Получится из железяки нечто, напоминающее искусственный интеллект?
Мы обошлись без MCP-серверов и сложных промптов с цепочками рассуждений. Просто сделали программную прослойку, которая преобразует команды от OpenClaw в сигналы, понятные пульту. Код для управления роботом G1 через API можно посмотреть здесь.
При этом не требуется специализированное устройство: по тому же принципу можно подключить радиопульт, управляющий, например, игрушечной собакой.
Видеопоток с камеры робота передаётся в OpenClaw, а дальше мультимодальная модель kimi-2.5 интерпретирует происходящее: распознаёт объекты, оценивает ситуацию, определяет целесообразность действий.
«После этого Страшила почувствовал себя умным, стал рассудительным и вскоре был признан самым мудрым правителем Изумрудного города».
Как физически работает агент
Заключение
OpenClaw может работать не только с цифровыми сервисами – отправлять почту, совершать покупки и управлять файлами на компьютере. С минимальными усилиями ИИ-агент способен взаимодействовать и с физическими устройствами. Достаточно подключить API управления и видеопоток с камер, после чего система сможет интерпретировать происходящее и отправлять команды. Это не заменяет полноценную разработку VLA-систем, но открывает широкие возможности для быстрого создания прикладных сценариев, прототипирования и демонстрации технологий. Главное – теперь этот путь доступен любому разработчику с доступом к облачной платформе и базовым пониманием API.
Кроме того, можно подключать LLM к своим продуктам по клику как любой другой облачный сервис. До 15 июля можно воспользоваться сервисом со скидкой до 95%.
Если у вас остались вопросы, посмотрите следующие материалы из базы знаний:
Или оставьте комментарий к статье.
Комментарии (8)

ToniDoni
16.04.2026 10:11API робота это конечно хорошо. А где посмотреть код как данные с дадчиков передаются в openclaw и как вообще (в openclaw?) орагнизована обработка обратной связи.

Snkurban Автор
16.04.2026 10:11По факту мы вообще поступили максимально просто, мы прислали в чат с роботом url с рестапи(там же и были камеры), репа была указана в статье. и на этом все. Базово было так.
OpenClaw, сам написал себе обработчик пошаговый. Из важных деталей которые мы не указали в статье, что мы попросили его самостоятельно произвести калибровку, что бы он понял сколько секунд ему нужно на движение в разные стороны, и на сколько он приближается. Дальше ллм+вижен, уже могла уверенно управлять.
ToniDoni
16.04.2026 10:11А вот этот обработчик, что openclaw написал, можно посмотреть где-то? В каком виде это было сделано, как отдельный скрипт управления роботом по апи ллмкой, который просто запускается агентом по просьбе в тг, или это было интегрировано в openclaw как то?

Kill_Voice
16.04.2026 10:11openclaw просто имеет mcp к bash, и пишет скрипты на python для вызова api, там нет никакой магии

ToniDoni
16.04.2026 10:11Вопрос был в том, можно на посмотреть на скрипт управления роботом, который он написал.
JackCarter33
Отличный кейс! Мы в OpenGrall идём похожим путём: LLM как стратег, готовое тело как исполнитель. Но добавляем слой безопасности и SensorMemory для асинхронной работы сенсоров. Если интересно — github.com/Ferum93/OpenGrall
Snkurban Автор
Спасибо! мы посмотрим!