Началась новая эра – эра автономных агентов. Пользователь пишет запрос на естественном языке, и агент сразу решает поставленную задачу. Или не сразу. Но в таком случае он самостоятельно ищет способ получить недостающие навыки для выполнения запроса.

Привет, Хабр! Меня зовут Сергей, я занимаюсь исследованиями в MWS и руковожу небольшой, но классной командой инженеров-исследователей. Пока одни с помощью ИИ-агентов ищут способы разгрузить рутину, мы в MWS смотрим дальше и видим больше. А что, если дать ИИ-агенту не только «руки», чтобы бродить по сети и нажимать кнопки в интерфейсе, но и «тело»?  

OpenClaw может физически взаимодействовать с реальным миром даже с помощью устройств «без мозгов». В этом материале разберём, как максимально просто развернуть такую систему самостоятельно. За помощь в подготовке спасибо Артёму @Artem_Lykov из центра R&D TechGov, который отвечает за направление Physical AI в MWS, и стажёру Дмитрию Ярчуку.

OpenClaw: в чём суть

Когда, казалось, все уже подустали от новостей про ИИ, новые LLM перестали вызывать ажиотаж и не создавали ощущения революционных изменений, в ноябре 2025 года open-source-проект OpenClaw встряхнул индустрию.

Разработчик Питер Штайнбергер создал оркестрационный слой, позволяющий ИИ автономно использовать компьютер. OpenClaw получает инструкции через мессенджер, разбивает их на процессы, выполняет сложные межприкладные задачи и сохраняет контекст.

При этом ИИ-агент может работать с любой LLM. Подробнее можно прочитать на сайте проекта.

История красивая, но есть нюанс.

Если установить OpenClaw на свой ноутбук, инструмент получает полный доступ к системе. Это большая дыра в безопасности. Гораздо надёжнее взять для такого дела виртуальную инфраструктуру в изолированной среде.

Сказано – сделано. Вместо того чтобы мучиться с Docker, собирать окружение вручную или часами штудировать документацию, теперь достаточно использовать готовый образ https://storage.mwsapis.ru/vm-template/images/openclaw-ubuntu-2404.qcow2 OpenClaw в MWS Cloud Platform и подключить к нему модель из MWS GPT Model Hub.

Инструкция по развёртыванию

Заходим в консоль, авторизуемся или регистрируемся, идём в раздел Compute и находим вкладку Образы.

Нажимаем кнопку «Создать».

Выбираем тип источника Образ по ссылке. Берём готовый образ по ссылке https://storage.mwsapis.ru/vm-template/images/openclaw-ubuntu-2404.qcow2 из объектного хранилища и добавляем URL в соответствующее поле. Нажимаем «Cоздать».  

Возвращаемся в раздел ComputeОбразы. Нажимаем три точки и выбираем Создать виртуальную машину.

Для наших задач вполне достаточно машины с 2 ядрами vCPU и 8 ГБ RAM.

Нажимаем «Далее» и переходим к настройке сети. 

Затем создаём SSH-ключ для доступа к серверу и идём дальше. 

Чтобы ВМ могла работать с ресурсами облака, на следующем шаге добавляем сервисный аккаунт.

Проверяем, что всё указали корректно, и нажимаем «Создать». 

Теперь нам нужно организовать доступ к LLM по API.

В консоли перейдём к сервису MWS GPT Model Hub. Сервис позволяет за несколько минут подключать LLM к своим продуктам и системам без управления инфраструктурой моделей (подробнее читайте здесь). При первом запуске нажмите кнопку Активировать.

Нажимаем кнопку «Выбрать» и переходим к списку доступных моделей. 

Выбираем модель и нажимаем «Создать». На следующем шаге нам предложат Создать сервисный аккаунт. Ссылка активна, переходим по ней.

Создаём сервисный аккаунт с ролью gpt.inferencer. Так мы сможем выполнять запросы к модели и просматривать информацию о деплойментах.

Переходим в сервисный аккаунт (IAM → Сервисные аккаунты → inference (пример)) и на вкладке «Ключи доступа» нажимаем «Создать», после чего выбираем вариант API-ключ. 

OpenClaw позволяет подключать любой совместимый с OpenAI API. Для работы с нашим OpenAI API используется базовый URL https://gpt.mwsapis.ru/projects/<имя проекта>/openai/v1.

Вкалывают роботы, а не человек

Теперь, когда OpenClaw стал простым и безопасным, найдём ему применение.

В сети есть множество примеров в духе «OpenClaw, задеплой в прод вечером в пятницу 13-го». Но у нас в MWS под рукой оказался не самый умный робот Unitree G1, который умеет ходить, держать баланс, реагировать на окружение и… собственно, всё.

Команда MWS активно развивает VLA (Vision-Language-Action) модели, объединяющие зрение, язык, рассуждение и действия для прямого взаимодействия с физическим миром. Однако от этого направления робототехники пока не ждут быстрых результатов.

Сейчас гуманоидный робот управляется просто через физический пульт. Мы задались вопросом: что, если передать управление с этого пульта агенту на базе OpenClaw? Получится из железяки нечто, напоминающее искусственный интеллект?

Мы обошлись без MCP-серверов и сложных промптов с цепочками рассуждений. Просто сделали программную прослойку, которая преобразует команды от OpenClaw в сигналы, понятные пульту. Код для управления роботом G1 через API можно посмотреть здесь.

При этом не требуется специализированное устройство: по тому же принципу можно подключить радиопульт, управляющий, например, игрушечной собакой.

Видеопоток с камеры робота передаётся в OpenClaw, а дальше мультимодальная модель kimi-2.5 интерпретирует происходящее: распознаёт объекты, оценивает ситуацию, определяет целесообразность действий.

«После этого Страшила почувствовал себя умным, стал рассудительным и вскоре был признан самым мудрым правителем Изумрудного города».

Как физически работает агент

Заключение

OpenClaw может работать не только с цифровыми сервисами – отправлять почту, совершать покупки и управлять файлами на компьютере. С минимальными усилиями ИИ-агент способен взаимодействовать и с физическими устройствами. Достаточно подключить API управления и видеопоток с камер, после чего система сможет интерпретировать происходящее и отправлять команды. Это не заменяет полноценную разработку VLA-систем, но открывает широкие возможности для быстрого создания прикладных сценариев, прототипирования и демонстрации технологий. Главное – теперь этот путь доступен любому разработчику с доступом к облачной платформе и базовым пониманием API.

Кроме того, можно подключать LLM к своим продуктам по клику как любой другой облачный сервис. До 15 июля можно воспользоваться сервисом со скидкой до 95%.

Если у вас остались вопросы, посмотрите следующие материалы из базы знаний:

Или оставьте комментарий к статье.

Комментарии (8)


  1. JackCarter33
    16.04.2026 10:11

    Отличный кейс! Мы в OpenGrall идём похожим путём: LLM как стратег, готовое тело как исполнитель. Но добавляем слой безопасности и SensorMemory для асинхронной работы сенсоров. Если интересно — github.com/Ferum93/OpenGrall


    1. Snkurban Автор
      16.04.2026 10:11

      Спасибо! мы посмотрим!


  1. ToniDoni
    16.04.2026 10:11

    API робота это конечно хорошо. А где посмотреть код как данные с дадчиков передаются в openclaw и как вообще (в openclaw?) орагнизована обработка обратной связи.


    1. Snkurban Автор
      16.04.2026 10:11

      По факту мы вообще поступили максимально просто, мы прислали в чат с роботом url с рестапи(там же и были камеры), репа была указана в статье. и на этом все. Базово было так.

      OpenClaw, сам написал себе обработчик пошаговый. Из важных деталей которые мы не указали в статье, что мы попросили его самостоятельно произвести калибровку, что бы он понял сколько секунд ему нужно на движение в разные стороны, и на сколько он приближается. Дальше ллм+вижен, уже могла уверенно управлять.


      1. ToniDoni
        16.04.2026 10:11

        А вот этот обработчик, что openclaw написал, можно посмотреть где-то? В каком виде это было сделано, как отдельный скрипт управления роботом по апи ллмкой, который просто запускается агентом по просьбе в тг, или это было интегрировано в openclaw как то?


        1. Kill_Voice
          16.04.2026 10:11

          openclaw просто имеет mcp к bash, и пишет скрипты на python для вызова api, там нет никакой магии


          1. Snkurban Автор
            16.04.2026 10:11

            Если душнить, то там нет mcp:)

            Там прямой exec tool


          1. ToniDoni
            16.04.2026 10:11

            Вопрос был в том, можно на посмотреть на скрипт управления роботом, который он написал.