Про то, как нейросети помогли быстро создать систему управления influence-маркетингом, которая позволила сэкономить 3-5 минут на каждом размещении, убрать задержки в работе и человеческий фактор, а также красиво визуализировать данные.
Последние месяцы активно занимаюсь продуктом EasyFit AI — Telegram-ботом для контроля питания по фото. Основной канал нашего продвижения сейчас — influence-маркетинг через блогеров.
И столкнулись мы с типичной проблемой: когда количество размещений растёт, ручное ведение кампаний в таблицах превращается в узкое место.
Сегодня поделюсь практичным кейсом: как за 20 часов создал систему управления кампаниями с блогерами. Раньше всё велось в Google Таблицах, теперь — автоматизация процессов и экономия времени на каждом размещении.

Проблема: когда таблицы становятся узким местом
В EasyFit AI мы активно тестируем influence-маркетинг. Начинали с 10-20 размещений в месяц при бюджете около 50 тысяч рублей. Сейчас масштабируемся до 50-100 размещений при бюджете 250+ тысяч рублей.
Старый процесс выглядел так:
Менеджер подбирает блогеров → мой партнёр согласовывает
Менеджер договаривается с блогером, берёт реквизиты → передаёт на оплату
Я вручную вбиваю платёж в банк и отправляю → отправляю подтверждение оплаты
Менеджер запрашивает UTM-ссылку → мы даём через несколько часов (иногда на следующий день)
Блогер выпускает пост
Менеджер через неделю вручную вбивает статистику в Google Таблицы
Потом повторно обновляет статистику через несколько недель
При малых объёмах это отлично работало, но с ростом количества кампаний становятся более критичными три проблемы:
Человеческий фактор: ошибки при переносе UTM-ссылок, дублирование платежей, неточности в статистике.
Задержки: ожидание UTM-ссылок затягивало запуск, ручной сбор статистики откладывал анализ результатов.
Время: на каждое размещение уходило лишние 3-5 минут на рутину, которую оказалось легко автоматизировать.
С ростом количества кампаний такой подход становится всё менее эффективным. К тому же анализировать эффективность разных сегментов блогеров в совокупности с эффективностью разных ТЗ по каджому сегменту в таблицах становится довольно затруднительно.

Решение: система аналитики для блогеров
Решил создать простую систему управления кампаниями, которая автоматизирует основные процессы:
Что получилось:
Автогенерация UTM-ссылок при согласовании блогера
Уникальные платежи без риска дублирования
Автоматическая синхронизация статистики в реальном времени
Автоматическое формирование платежей в банке
Аналитика по тематикам и эффективности размещений

Новый процесс:
Менеджер подбирает блогеров → кофаундер согласовывает в интерфейсе
UTM-ссылка генерируется автоматически
Менеджер вбивает реквизиты в систему → платёж появляется в банке
Я подписываю платежи пачкой
Статистика синхронизируется с основным сервисом автоматически, а результаты наглядно видны в разрезе кампаний, блогеров, технических заданий и даже отдельных тематик каналов блогеров

Как это делалось: процесс разработки с ИИ
Стек и подход
Выбрал максимально знакомый для себя стек: Django + PostgreSQL + Redis + Celery. Причина простая — при возникновении проблем смогу быстро вклиниться в работу нейросети и исправить.
Основные инструменты:
Cursor
Claude Code
Perplexity Labs
Этапы работы
День 1: Планирование и начало реализации
Начал с описания идеи в Cursor. Попросил GPT-5 задать уточняющие вопросы, затем он составил подробную спецификацию. На планирование с подбором дизайна ушло час-два, после чего сразу приступил к реализации.
Задачи формировал в несколько этапов:
Основная логика (модели, админка)
Интеграция с UTM-аналитикой основного сервиса
Интеграция с Т-Банком для платежей
Для понимания приведу пример документа, который у меня получился при планировании интеграции с основным сервисом для синхронизации статистики. Сначала при помощи нейросети я детализировал задачу, а затем разбил её на 2 промпта — один закинул в основной сервис для разработки нужного метода API, а второй уже для нового сервиса.
День 1-3: Основная разработка
Писал чисто промптами, в код практически не залезал. Cursor отлично справлялся с типовыми задачами Django-разработки.
Для сложных задач использовал интерфейс Cursor, для мелких правок — Claude Code. Cursor не так давно стал дороговат, а у меня давно есть подписка от Anthropic, так что теперь использую оба инструмента.
День 4-5: Интеграции и финальная доработка
Делал интеграцию с основным сервисом EasyFit и API банка. Здесь пришлось больше контролировать процесс и иногда дебажить вручную.
Ну и потом всё это прихорашивал, чтобы нужные данные были в нужных местах. Здесь не обошлось без багов, но нейронки справлялись за 1-2 промпта, так что лезть в код не приходилось.

Единственная трудность
Я лепил это всё в директории основного сервиса, в результате чего заметил, что Claude Code в некоторых задачах сильно тупил, когда я открывал его из корневой директории основного проекта. Например, пытался применять миграции Django из основного сервиса. Всё прошло, когда я начал открывать Claude Code из директории конкретно разрабатываемого сервиса.
Конкретные результаты
Оптимизация процессов
Время на размещение: сократил 3-5 минут на размещение, что на объёме в сотни размещений скажется довольно приятно
Задержки в процессе: сократил цикл с момента планирования размещения до анализа результатов минимум на пару дней
Человеческие ошибки: практически исключены
Новые возможности
Аналитика по тематикам: Теперь можем группировать результаты по нишам блогеров и видеть, какие дают лучший ROMI. В таблицах такой анализ занимал бы часы ручной работы.

A/B тестирование ТЗ: Планируем тестировать разные варианты технических заданий для блогеров — например, с упором на ценность похудения или упоминанием старых конкурентов.
Масштабируемость: Система легко выдержит рост до сотен размещений в месяц без увеличения количества сотрудников.
Что работает автоматически, а раньше делалось вручную
Генерация уникальных UTM-ссылок при согласовании
Оплата платежей в банке в один клик
Синхронизация статистики переходов и конверсий в реальном времени
Группировка аналитики по тематикам и блогерам
Дизайн за 5 минут
Отдельно, думаю, стоит упомянуть про дизайн. Если не задать какой-то стиль, то нейросети с большой вероятностью сгенерируют что-то не очень привлекательное. Поэтому для генерации референсов я использовал Perplexity Labs:
Попросил придумать современный дизайн для системы управления кампаниями
Выбрал понравившийся референс
Скинул его агентам-разработчикам
Можно было бы сделать как-то более продуманно, но результат меня устроил, поэтому решил дальше не усердствовать.
Выводы
Подобная автоматизация стоит того, когда можно сделать её быстро. Если бы эта система требовала месяцы разработки, я бы даже не думал о ней. Но когда весь проект — вопрос 20 часов, то определённо стоит попробовать. Так что вайб-кодинг открывает новые возможности, которые стоит учитывать.
Если дальше усложнять систему, то она определённо потребует рефакторинга и полного погружения в код, но на данном этапе всё работает хорошо и пока этого не потребовалось.
Для тех, кто хочет попробовать:
Выбирайте знакомый стек — при проблемах сможете быстро исправить
Начинайте с детального описания задачи — попросите ИИ задать уточняющие вопросы
Разбивайте на этапы — не пытайтесь сделать всё в одном промпте
Минимальные навыки: Достаточно базового понимания выбранного фреймворка. Если что-то непонятно — спрашивайте у нейросети детали.
Обо мне: Делаю стартапы с 2018 года, активно использую нейросети в разработке. О том, как использую нейросети в жизни и создаю продукты с минимальным бюджетом, рассказываю в своём телеграм-канале.
Мои проекты:
Buyer — метамаркетплейс брендовых кроссовок с выручкой в десятки миллионов
EasyFit AI — Telegram-бот для контроля питания по фото
Комментарии (13)
achekalin
09.09.2025 03:49Я вот не пойму, плакать или смеяться. Что за N часов одной левой сервис поднимается - вроде как хорошо. Когда он навернется, а поднять его тем же инструментарием ("третьи сутки умоляем GPT всей конторой!") не получится - будет неуютно.
avshkol
09.09.2025 03:49Это смотря на чём - к примеру, питон и джанго дают много информации, где чего навернулось.
KartaloSt
09.09.2025 03:49Обоснуйте почему не получится? Есть ли практический пример когда навайбкоденное не удалось поднять после продолжительного функционирования?
avshkol
09.09.2025 03:49Тоже мечтаю повайбкодить в паре-тройке заброшенных проектов, но катастрофически нет времени...
mmMike
А "бюджет кАмпании" - это нейросеть подсказала?
Или имеется в виду "военная кампания" (Устаревшее.. Военные действия против кого-н., война.)
Кстати, не знаю как другим, а меня "писать промпт" раздражает.
текст промта получается как бы не длинней кода.
текс промта (особенно чужой) лично мне зачатую сложнее понять (а что хотел то), чем код. Код лаконичней и понятней в большинстве случаев.
А как то... из опыта.. если сделать строго по ТЗ (не общаясь с заказчиком), то в бооольшом проценте случаев получаеся хрень (заказчик: "а я имел в виду совсем другое").
Для UI еще сойдет (хоть показать UI можно), то для чего то более сложного - возникнут проблемы.
plus_stick
Боюсь, имелись в виду маркетинговые кАмпании
gooddaygood
Господи ну ведь не было такой публики здесь 10 лет назад. Откуда вы нарегистрировались...
uKap
И не говори...
mmMike
Написал не подумав (параллельно еще много чем занимался)
А вам равится пинать ошибшегося? Ок. бывает. Чего бы не пнуть.
sguslya
ну ты конечно даешь, да точно имелась ввиду военная кампания, какой кринж, а...
obamarama
почему именно военная и почему устаревшее? а что делать с рекламной и предвыборной? если вы русский язык только начали изучать, может слышали о слове campaign )