Привет, Хабр! На связи команда маркетинга продукта Agent Platform. Как и многие продуктовые команды, мы пристально следим за тем, что говорят о нас пользователи.
Эта статья — о том, как мы решили задачу, которая знакома, наверное, каждому продуктовому маркетологу или DevRel-у: не пропустить негатив о продукте в разных источниках, где его упомянули.
Спойлер: собирать агента для мониторинга упоминаний бренда не так страшно, как кажется. В статье разберем архитектуру мультиагентной системы и расскажем с какими сложностями столкнулись.
Откуда вообще взялась эта задача
Представьте типичный понедельник. Кто-то из коллег скидывает в рабочий чат ссылку: «Смотрите, нас упомянули в статье на Хабре». Или оказывается, что в одном из отраслевых Telegram-каналов вышел разбор с упоминанием нашего продукта — и мы узнаем об этом постфактум.
Мы поняли, что ежедневно мониторим наше Telegram-комьюнити, но упоминания в медиа, блогах и каналах находили случайно: через репосты, рекомендации или «сарафанное радио». Иногда — с задержкой в несколько дней. Несколько человек по очереди заглядывали в разные каналы и поисковики, когда вспоминали. Зоны ответственности были размыты.
В результате мы:
упускали возможность быстро отреагировать на публикации,
не всегда использовали инфоповоды (например, чтобы сделать репост или включиться в обсуждение),
не имели полной картины того, где и как нас упоминают.
Нам нужен был системный подход, особенно для отслеживания упоминаний нового продукта — Just AI Agent Platform.

Нужен был агент, который сделает все это автоматически и без забывчивости.
Что должен уметь агент: постановка задачи
Задачу сформулировали так:
Ежедневно сканировать интернет по заданным ключевым словам для поиска свежих упоминаний бренда и продукта.
При обнаружении упоминания — анализировать тональность: позитивная, нейтральная или негативная.
Раз в день формировать и отправлять сводный отчет в Telegram-чат со всеми найденными упоминаниями.
Кроме отчета в Telegram, собирать массив упоминаний со ссылкой на источники в сводную таблицу Google Sheets, чтобы иметь возможность в дальнейшем анализировать и искать точки роста в работе с медийностью продукта.
Метрики успеха:
Точность сбора упоминаний — насколько найденные материалы соответствуют заданным ключевым словам. За время тестирования удалось добиться точности до 99%.
Снижение финансовых затрат и ручных часов сотрудников:
Средняя стоимость работы решения — около 460 ₽/мес.
С учетом роста количества упоминаний в пиковые периоды закладываем до 1000 ₽/мес.
Это дает экономию от ~56 000 ₽/мес по сравнению с типовыми решениями на рынке (где только базовый мониторинг СМИ начинается от ~50 000 ₽/мес и ограничен одним пользователем).
Снижение трудозатрат: ~14 часов/мес.
Снижение ручного мониторинга: ≥ 80%
Процент отработанных упоминаний: 100%
Важный момент: мы не стали делать «суперагента» с большим количеством функций. Задача конкретная — мониторинг, алерты, сбор данных в таблицу. Декомпозиция и специализация — это базовый принцип, который отделяет работающие агентные системы от монолитных монстров с промптом на 10 000 токенов. |
Архитектура: три шага, один пайплайн
Система строится по классической линейной схеме (pipeline). Агенты передают данные по цепочке, каждый делает свою задачу:
Шаг |
Агент |
Что делает |
1 |
Мониторинг |
Подключается к источникам, отслеживает новые сообщения |
2 |
Анализ |
LLM определяет, есть ли упоминание бренда и какова тональность |
3 |
Уведомление |
Формирует и отправляет алерт в Telegram ответственному, а также добавляет все новые статьи в таблицу для сбора упоминаний |
Почему пайплайн (автоматизированная цепочка действий), а не оркестратор или рой? Потому что задача — линейная, последовательная и предсказуемая. Здесь не нужны параллельные агенты или сложная маршрутизация. По нашему опыту пайплайн — это быстро, недорого и легко дебажить.
Стек и инструменты
Для реализации мы использовали:
Just AI Agent Platform — для оркестрации агентов и сборки сценария.
Tavily Search API — для поиска упоминаний по всему интернету в реальном времени.
Telegram Bot API — для отправки уведомлений ответственному.
Google Sheets Webhook — для отправки всех собранных упоминаний в единую таблицу.
LLM — для анализа тональности.
Как это работает
Шаг 1. Мониторинг источников
Основной поиск агент ведет через Tavily — сервис, который предоставляет LLM-моделям доступ к поиску в интернете в реальном времени. Агент отправляет запросы с ключевыми словами (название продукта, бренда) и получает в ответ список релевантных ссылок с уже очищенными от HTML-разметки фрагментами текста. Это решило огромную проблему грязных данных, с которой мы сталкивались в первой версии агента, работавшей с RSS-фидами.

Инструкция агента (промпт) разбита на секции: роль, цель и конкретные правила работы. Важный момент, который мы поняли в процессе: не надо пытаться впихнуть в промпт все сразу. Четкое описание роли, набор правил, формат вывода — этого достаточно.
Шаг 2. Анализ тональности
Если сообщение прошло первичный фильтр, оно отправляется в LLM. Промпт устроен следующим образом:
Роль: Ты — аналитик тональности медиаупоминаний бренда Just AI Agent Platform. Ты специализируешься на анализе русскоязычных публикаций в контексте IT-рынка, AI-технологий и платформ для создания ИИ-агентов.
Цель: Определить тональность каждого упоминания бренда из входного массива статей и вернуть обогащенный массив с полем sentiment для дальнейшей передачи агенту отправки уведомлений.

Почему JSON? Потому что следующий шаг — автоматическая маршрутизация. Агент для анализа передает массив упоминаний с оценкой тональности, а агент для отправки принимает записанные данные и принимает решение: отправлять алерт или нет, и с каким приоритетом.
Шаг 3. Уведомления и алерты
Раз в сутки агент собирает все найденные за день упоминания и формирует единый отчет, который отправляется в рабочий чат команды.
Формат алерта:

Сборка агента на Agent Platform: быстрее, чем кажется
Покажем, как выглядит сборка такого сценария на Just AI Agent Platform.
Основной холст — это граф из блоков, которые последовательно выполняют задачи, следуя логике цепочки агентов. Для нашего кейса нужно буквально четыре блока:
1. Планировщик (Триггер): он запускает весь процесс по расписанию, например, каждый рабочий день в установленное время.
2. Агент «Сбор упоминаний»: этот агент, используя функцию searchandNotify, отвечает за поиск новых упоминаний бренда в интернете (через Tavily).
3. Агент «Анализ тональности»: следующий агент принимает собранные упоминания и с помощью модели GPT 5.1 определяет их тональность: позитивную, нейтральную или негативную.
4. Агент «Отправка уведомлений»: Финальный агент, используя функцию sendToTelegramAgent, формирует из проанализированных упоминаний ежедневный сводный отчет и отправляет его в заданный Telegram-канал.

Проблемы, на которые мы натолкнулись
Без трудностей не обошлось. Вот основные:
Грязные данные из RSS-фидов
В первой версии агента, когда мы использовали поиск через RSS-фиды Google Alerts, текст упоминаний часто приходил в Telegram с кусочками HTML-разметки во фрагментах текста, это ухудшало читаемость.
Решение: переход на Tavily для основного поиска полностью решил эту проблему. Tavily предоставляет уже очищенный и структурированный текст, что значительно упрощает этап предобработки данных.

Ложные срабатывания на технический сленг
Слово «агент» встречается в огромном количестве контекстов, никак не связанных с нашим продуктом — агенты ФСБ, агенты недвижимости, литературные агенты. Первые версии промпта триггерили алерты на все подряд.
Решение: добавили в промпт явный список ключевых словосочетаний и запретили реагировать на упоминания без контекстного совпадения с продуктом. Плюс попросили другую LLM оптимизировать промпт — аналогичный прием использовали коллеги при разработке DSL-агента.
Что изменилось
Поскольку агент только недавно запущен внутри нашей команды, говорить о долгосрочной статистике пока рано. Однако уже сейчас видны как качественные, так и первые количественные изменения.
С точки зрения процессов:
мы практически убрали ручной мониторинг — на 80%,
освободили около 14 часов в месяц у команды,
при этом стоимость решения остается на уровне до 1000 ₽/мес — затраты на токены.
Самое ощутимое изменение — психологическое. Раньше была фоновая тревога «вдруг что-то написали, а мы не знаем». Сейчас агент сам отслеживает и вовремя присылает уведомления — это снимает нагрузку с команды и дарит уверенность, что мы всегда в курсе актуальных упоминаний.
Дополнительно выросла скорость реакции: мы можем оперативно отреагировать на публикацию, включиться в обсуждение, или использовать инфоповод — например, сделать репост в свои каналы.
Пока это скорее качественный эффект, но уже сейчас понятно, что мы получили рабочий инструмент для системного мониторинга и быстрого реагирования.
Когда такой агент оправдан, а когда — нет
Агент для мониторинга упоминаний имеет смысл, если:
У вас активное комьюнити и множество источников, которые трудно мониторить вручную.
Репутационные риски реальны: есть конкуренты, есть пользователи, есть критика.
Команда маленькая, и тратить человеко-часы на ручной мониторинг — слишком дорого.
Агент избыточен, если:
У вас 2–3 источника и один человек, который их регулярно читает.
Продукт внутренний и комьюнити нет.
Нет четкого ответственного, который будет реагировать на алерты.
Одно из главных преимуществ такого агента — гибкость. Мы можем в любой момент изменить список ключевых слов и адаптировать его под мониторинг совершенно другого продукта, конкурента или технологии. Это позволяет легко масштабировать систему на большее количество упоминаний или даже на несколько разных проектов без необходимости переписывать всю логику с нуля. |
Что дальше
В планах — добавить модуль, который не просто алертит, но и предлагает черновик ответа на комментарий с учетом контекста и тональности. Ещё интересная точка роста — агрегация трендов. Не просто «вот новые упоминания», а «за последние 7 дней количество негативных упоминаний выросло на 30%, вот топ-темы». Это уже аналитика, а не просто отчеты.
Мы специально выбрали этот кейс для статьи, потому что он подойдет даже для команд, которые далеки от разработки: задача реальная, боль понятная, решение не требует сложной инфраструктуры.
Принцип, который мы используем в автоматизации: начинать с самой простой архитектуры и усложнять только тогда, когда появляются реальные ограничения.
Если вы работаете над похожей задачей — будем рады обсудить в комментариях. А если хочется погружения в архитектуру агентов, RAG и интеграции — заходите в наше Telegram-комьюнити для разработчиков.