Привет, Хабр! На связи команда маркетинга продукта Agent Platform. Как и многие продуктовые команды, мы пристально следим за тем, что говорят о нас пользователи.

Эта статья — о том, как мы решили задачу, которая знакома, наверное, каждому продуктовому маркетологу или DevRel-у: не пропустить негатив о продукте в разных источниках, где его упомянули.

Спойлер: собирать агента для мониторинга упоминаний бренда не так страшно, как кажется. В статье разберем архитектуру мультиагентной системы и расскажем с какими сложностями столкнулись.

Откуда вообще взялась эта задача

Представьте типичный понедельник. Кто-то из коллег скидывает в рабочий чат ссылку: «Смотрите, нас упомянули в статье на Хабре». Или оказывается, что в одном из отраслевых Telegram-каналов вышел разбор с упоминанием нашего продукта — и мы узнаем об этом постфактум.

Мы поняли, что ежедневно мониторим наше Telegram-комьюнити, но упоминания в медиа, блогах и каналах находили случайно: через репосты, рекомендации или «сарафанное радио». Иногда — с задержкой в несколько дней. Несколько человек по очереди заглядывали в разные каналы и поисковики, когда вспоминали. Зоны ответственности были размыты. 

В результате мы:

  • упускали возможность быстро отреагировать на публикации,

  • не всегда использовали инфоповоды (например, чтобы сделать репост или включиться в обсуждение),

  • не имели полной картины того, где и как нас упоминают.

Нам нужен был системный подход, особенно для отслеживания упоминаний нового продукта — Just AI Agent Platform.

Пример, упоминания в официальном канале Хабра, который найден благодаря агенту
Пример, упоминания в официальном канале Хабра, который найден благодаря агенту

Нужен был агент, который сделает все это автоматически и без забывчивости.

Что должен уметь агент: постановка задачи

Задачу сформулировали так:

  • Ежедневно сканировать интернет по заданным ключевым словам для поиска свежих упоминаний бренда и продукта.

  • При обнаружении упоминания — анализировать тональность: позитивная, нейтральная или негативная.

  • Раз в день формировать и отправлять сводный отчет в Telegram-чат со всеми найденными упоминаниями.

  • Кроме отчета в Telegram, собирать массив упоминаний со ссылкой на источники в сводную таблицу Google Sheets, чтобы иметь возможность в дальнейшем анализировать и искать точки роста в работе с медийностью продукта.

 Метрики успеха:

  • Точность сбора упоминаний — насколько найденные материалы соответствуют заданным ключевым словам. За время тестирования удалось добиться точности до 99%.

  • Снижение финансовых затрат и ручных часов сотрудников:

Средняя стоимость работы решения — около 460 ₽/мес.

С учетом роста количества упоминаний в пиковые периоды закладываем до 1000 ₽/мес.

Это дает экономию от ~56 000 ₽/мес по сравнению с типовыми решениями на рынке (где только базовый мониторинг СМИ начинается от ~50 000 ₽/мес и ограничен одним пользователем).

Снижение трудозатрат: ~14 часов/мес.

  • Снижение ручного мониторинга: ≥ 80%

  • Процент отработанных упоминаний: 100%

Важный момент: мы не стали делать «суперагента» с большим количеством функций. Задача конкретная — мониторинг, алерты, сбор данных в таблицу. Декомпозиция и специализация — это базовый принцип, который отделяет работающие агентные системы от монолитных монстров с промптом на 10 000 токенов.

Архитектура: три шага, один пайплайн

Система строится по классической линейной схеме (pipeline). Агенты передают данные по цепочке, каждый делает свою задачу:

Шаг

Агент

Что делает

1

Мониторинг

Подключается к источникам, отслеживает новые сообщения

2

Анализ

LLM определяет, есть ли упоминание бренда и какова тональность

3

Уведомление

Формирует и отправляет алерт в Telegram ответственному, а также добавляет все новые статьи в таблицу для сбора упоминаний

Почему пайплайн (автоматизированная цепочка действий), а не оркестратор или рой? Потому что задача — линейная, последовательная и предсказуемая. Здесь не нужны параллельные агенты или сложная маршрутизация. По нашему опыту пайплайн — это быстро, недорого и легко дебажить. 

Стек и инструменты

Для реализации мы использовали:

  • Just AI Agent Platform — для оркестрации агентов и сборки сценария.

  • Tavily Search API — для поиска упоминаний по всему интернету в реальном времени.

  • Telegram Bot API — для отправки уведомлений ответственному.

  • Google Sheets Webhook — для отправки всех собранных упоминаний в единую таблицу.

  • LLM — для анализа тональности. 

Как это работает 

Шаг 1. Мониторинг источников

Основной поиск агент ведет через Tavily — сервис, который предоставляет LLM-моделям доступ к поиску в интернете в реальном времени. Агент отправляет запросы с ключевыми словами (название продукта, бренда) и получает в ответ список релевантных ссылок с уже очищенными от HTML-разметки фрагментами текста. Это решило огромную проблему грязных данных, с которой мы сталкивались в первой версии агента, работавшей с RSS-фидами.

Настройки инструкции для первого агента
Настройки инструкции для первого агента

Инструкция агента (промпт) разбита на секции: роль, цель и конкретные правила работы. Важный момент, который мы поняли в процессе: не надо пытаться впихнуть в промпт все сразу. Четкое описание роли, набор правил, формат вывода — этого достаточно.

Шаг 2. Анализ тональности

Если сообщение прошло первичный фильтр, оно отправляется в LLM. Промпт устроен следующим образом:

Роль: Ты — аналитик тональности медиаупоминаний бренда Just AI Agent Platform. Ты специализируешься на анализе русскоязычных  публикаций в контексте IT-рынка, AI-технологий и платформ для создания ИИ-агентов.

Цель: Определить тональность каждого упоминания бренда из входного массива статей и вернуть обогащенный массив с полем sentiment для дальнейшей передачи агенту отправки уведомлений.

Отрывок инструкции агента по оценке тональности 
Отрывок инструкции агента по оценке тональности 

Почему JSON? Потому что следующий шаг — автоматическая маршрутизация. Агент для анализа передает массив упоминаний с оценкой тональности, а агент для отправки принимает записанные данные  и принимает решение: отправлять алерт или нет, и с каким приоритетом. 

Шаг 3. Уведомления и алерты

Раз в сутки агент собирает все найденные за день упоминания и формирует единый отчет, который отправляется в рабочий чат команды.

Формат алерта:

Пример сообщения с общим количеством упоминаний бренда/продукта и пример конкретного упоминания
Пример сообщения с общим количеством упоминаний бренда/продукта и пример конкретного упоминания

Сборка агента на Agent Platform: быстрее, чем кажется

Покажем, как выглядит сборка такого сценария на Just AI Agent Platform.

Основной холст — это граф из блоков, которые последовательно выполняют задачи, следуя логике цепочки агентов. Для нашего кейса нужно буквально четыре блока:

1.     Планировщик (Триггер): он запускает весь процесс по расписанию, например, каждый рабочий день в установленное время.

2.     Агент «Сбор упоминаний»: этот агент, используя функцию searchandNotify, отвечает за поиск новых упоминаний бренда в интернете (через Tavily).

3.     Агент «Анализ тональности»: следующий агент принимает собранные упоминания и с помощью модели GPT 5.1 определяет их тональность: позитивную, нейтральную или негативную.

4.     Агент «Отправка уведомлений»: Финальный агент, используя функцию sendToTelegramAgent, формирует из проанализированных упоминаний ежедневный сводный отчет и отправляет его в заданный Telegram-канал.

Схема агента по упоминаниям бренда и их тональности
Схема агента по упоминаниям бренда и их тональности

Проблемы, на которые мы натолкнулись

Без трудностей не обошлось. Вот основные:

Грязные данные из RSS-фидов

В первой версии агента, когда мы использовали поиск через RSS-фиды Google Alerts, текст упоминаний часто приходил в Telegram с кусочками HTML-разметки во фрагментах текста, это ухудшало читаемость.

Решение: переход на Tavily для основного поиска полностью решил эту проблему. Tavily предоставляет уже очищенный и структурированный текст, что значительно упрощает этап предобработки данных.

Пример кусочков HTML-разметки во фрагментах текста
Пример кусочков HTML-разметки во фрагментах текста

Ложные срабатывания на технический сленг

Слово «агент» встречается в огромном количестве контекстов, никак не связанных с нашим продуктом — агенты ФСБ, агенты недвижимости, литературные агенты. Первые версии промпта триггерили алерты на все подряд.

Решение: добавили в промпт явный список ключевых словосочетаний и запретили реагировать на упоминания без контекстного совпадения с продуктом. Плюс попросили другую LLM оптимизировать промпт — аналогичный прием использовали коллеги при разработке DSL-агента.

Что изменилось

Поскольку агент только недавно запущен внутри нашей команды, говорить о долгосрочной статистике пока рано. Однако уже сейчас видны как качественные, так и первые количественные изменения.

С точки зрения процессов:

  • мы практически убрали ручной мониторинг — на 80%,

  • освободили около 14 часов в месяц у команды,

  • при этом стоимость решения остается на уровне до 1000 ₽/мес — затраты на токены.

Самое ощутимое изменение — психологическое. Раньше была фоновая тревога «вдруг что-то написали, а мы не знаем». Сейчас агент сам отслеживает и вовремя присылает уведомления — это снимает нагрузку с команды и дарит уверенность, что мы всегда в курсе актуальных упоминаний. 

Дополнительно выросла скорость реакции: мы можем оперативно отреагировать на публикацию, включиться в обсуждение, или использовать инфоповод — например, сделать репост в свои каналы.

Пока это скорее качественный эффект, но уже сейчас понятно, что мы получили рабочий инструмент для системного мониторинга и быстрого реагирования.

Когда такой агент оправдан, а когда — нет

Агент для мониторинга упоминаний имеет смысл, если:

  •  У вас активное комьюнити и множество источников, которые трудно мониторить вручную.

  • Репутационные риски реальны: есть конкуренты, есть пользователи, есть критика.

  • Команда маленькая, и тратить человеко-часы на ручной мониторинг — слишком дорого.

Агент избыточен, если:

  •  У вас 2–3 источника и один человек, который их регулярно читает.

  • Продукт внутренний и комьюнити нет.

  • Нет четкого ответственного, который будет реагировать на алерты.

Одно из главных преимуществ такого агента — гибкость. Мы можем в любой момент изменить список ключевых слов и адаптировать его под мониторинг совершенно другого продукта, конкурента или технологии. Это позволяет легко масштабировать систему на большее количество упоминаний или даже на несколько разных проектов без необходимости переписывать всю логику с нуля.

Что дальше

В планах — добавить модуль, который не просто алертит, но и предлагает черновик ответа на комментарий с учетом контекста и тональности. Ещё интересная точка роста — агрегация трендов. Не просто «вот новые упоминания», а «за последние 7 дней количество негативных упоминаний выросло на 30%, вот топ-темы». Это уже аналитика, а не просто отчеты.

Мы специально выбрали этот кейс для статьи, потому что он подойдет даже для команд, которые далеки от разработки: задача реальная, боль понятная, решение не требует сложной инфраструктуры. 

Принцип, который мы используем в автоматизации: начинать с самой простой архитектуры и усложнять только тогда, когда появляются реальные ограничения.

Если вы работаете над похожей задачей — будем рады обсудить в комментариях. А если хочется погружения в архитектуру агентов, RAG и интеграции — заходите в наше Telegram-комьюнити для разработчиков.

Комментарии (0)