Привет, Хабр! Меня зовут Евгений Лукин, я CPO продукта MWS OctAPI — это интеграционная платформа, которую мы создали для задач МТС, но теперь предлагаем как продукт на рынке.
Интеграционные платформы… кажется, что это что-то скучное и уже давно commodity — шины данных, kafka — вот это вот всё, что тут может быть интересного?
Да, но нет.

Как ИИ поменял подход к работе
«На небе любой ИТ-конференции только и разговоров, что о море ИИ-агентах».
Совсем не так давно в 2018 году вышла первая языковая модель GPT-1 от OpenAI.
Но основной бум ИИ начался (для обывателей) в 2022 году, когда для ChatGPT выкатили простой интерфейс, который позволял задать вопрос и получить подробный ответ в формате обычного чата. Это был disruption — всё больше и больше задач делегировались ChatGPT и его аналогам: от «реши домашнее задание» до «напиши код на Java».
С тех пор ИИ становится всё умнее.

Ещё недавно типичное место разработчика — это браузер с десятками вкладок различных порталов, документации, StackOverflow, где можно было найти подходящий инструмент, синтезировать данные и выбрать лучшее работающее решение.
Вот что происходит со StackOverflow прямо сейчас:

Почему инструменты вроде https://www.cursor.com/ или IDE со встроенным ИИ — это уже must have разработчика и почему они полностью заменяют стандартный поиск?
Вот так выглядит ответ на типовой запрос в StackOverflow:

Тут есть и варианты решения, и голоса за лучший вариант, и holy war, почему одно решение лучше другого.
А вот такое прямо в IDE даёт Cursor:

ИИ взял на себя задачу синтеза и выдачи верного ответа — причём именно там, где нужно. Теперь вопрос только в точности промпта.
Так мы пришли к vibe coding.

Но что дальше?

Действительно. Логичный вопрос — почему «компьютер» не может сделать что-то за нас, а только указывает на ошибку?
Уже сейчас есть решения вроде loveable.dev, bolt.new, которые дают не просто ответ на задачу с примерами кода, но сразу готовый application по твоим запросам. Это теперь его задача не забыть “ ; ”, а не моя.
ИИ стал для нас мозгом с чатом, но люди ленивы (и это хорошо — это двигает наше развитие), и мы хотим делегировать ИИ всё больше задач.

Мы хотим, чтобы ИИ не только давал ответы, но и мог сам что-то делать.
Но чтобы делать — нужны руки.

Такой ИИ с «руками» и есть ИИ-агент, который может выполнять действия по указанию пользователя.
Где ИИ взять «руки»
Взаимодействие с любой системой происходит через чётко специфицированный API. Даже методы (действия), которые можно выполнить, мы на ИТ-жаргоне называем «ручки». И вот эти «ручки» становятся полноценными «руками» для ИИ.
Типичная картина разработки интеграции:

Зачастую становится сложным не создать интеграцию, а понять, как работает API, как к нему подключиться. Человек может разобраться в куче документации и понять — она не актуальна. Поговорить с архитекторами, с техлидами, с аналитиками и в итоге решить задачу.
А вот ИИ пока на это неспособен.
Garbage in, garbage out — поняли мы, и в нашей интеграционной платформе MWS OctAPI сразу создали единый портал, в котором описаны различные API и интеграционные потоки: OpenAPI, AyncAPI, Event Mesh стриминговые потоки, Service Mesh, Low Code. На портале разработчики, архитекторы, аналитики могут найти любые API для всех систем внутри МТС.

И таких API на портале тысячи к различным системам. Эти API (их «ручки») позволяют делать что угодно: бронировать встречи и переговорные, получать данные по балансу, создавать задачи в таск-трекере, баги в инцидент-менеджмент-системе, отправлять письма и т. д.
Теперь наш портал с хорошо описанными «ручками» — это полноценные «руки» для построения ИИ-агентов.
Как выглядит ИИ-агент

В таком подходе есть свои плюсы:
Все «ручки» уже хорошо описаны.
Подключение к API проходит через согласование с ИБ.
Ко всем подключениям применяются единые политики — проверки безопасности, rate limiting, validation.
Но есть и минусы такого подхода: общение пользователя с ИИ-агентом происходит в режиме диалога и отправки промптов, а общение агента с API — на техническом языке в формате xml / json. И это не очень удобно.
Как на самом деле выглядит ИИ-агент
Чтобы решить проблему взаимодействия ИИ-агентов с API, компанией Anthropic был создан новый протокол MCP, который стандартизует взаимодействие ИИ-агентов с инструментами и источниками данных. И тогда картинка ИИ-агента немного меняется.

То есть агент взаимодействует уже не напрямую с API, а с MCP-сервером, который может быть создан на базе тех же самых API.
MCP vs A2A от Google
«Ещё один новый протокол?!» — скажете вы и будете не правы. Два новых протокола!
Google тоже выпустила новый протокол A2A (Agent to Agent), и этот протокол не конфликтует с MCP, но определяет правила взаимодействия между агентами, чтобы они могли общаться друг с другом.

Что теперь требуется от интеграционной платформы?
Современная интеграционная платформа должна видоизменяться и давать больше функционала для клиентов, сотрудников, которые хотят строить и использовать ИИ-агентов.

Интеграционная платформа должна предоставлять возможности:
Создавать MCP-сервер на базе существующей OpenAPI-спецификации.
Регистрировать ИИ-агентов и поддерживать A2A-протокол.
Предоставлять Orchestration engine (Low-сode / No-сode) по типу n8n для построения ИИ-агентов.
Поддерживать все корпоративные правила по авторизации, подключению, политикам троттлинга.
Мир розовых пони уже наступил?

Всё ли так идеально с внедрением и использованием ИИ-агентов?
Проблемой остаётся галлюцинирование моделей.
ИИ даёт ответ всегда — просто этот ответ верен с какой-то вероятностью. А мы так быстро и легко привыкли доверять ИИ, что через какое-то время перестанем даже проверять его советы. А если мы полностью доверяем работу ИИ-агентам, то риски возрастают существенно (Сара Конор нас предупреждала).
С другой стороны, ИИ-модели становятся всё лучше и делают всё меньше и меньше ошибок.

Тут можно проследить эволюцию Midjourney и не отличить последнюю картинку от реальной фотографии
Второй важный вопрос: зачем вообще нужны ИИ-агенты и какая от них реальная польза?

С одной стороны, паттерны наиболее типовых и удачных проектов для внедрения в бизнес уже есть: Data Extraction и Search Assistants.
В статье «Скучная правда про LLM: эффект дают не громкие слова, а простые сценарии с очевидной ценностью» мой коллега привёл довольно много уже работающих кейсов о пользе для бизнеса.
С другой стороны, мой честный ответ: «Мы ещё точно не знаем, но мы понимаем, что мы на пороге чего-то большого».
В ИТ мы живём как в зазеркалье: «Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!»
Поэтому если картинка с шимпанзе вам показалась знакомой, возможно, вы уже достаточно сильно отстаёте.
А если хотите нагонять — интеграционная платформа с полным интеграционным ландшафтом, созданием MCP tools, поддержкой A2A-протокола и встроенным Low Code — это первый шаг.