Про то, как нейросети помогли быстро создать систему управления influence-маркетингом, которая позволила сэкономить 3-5 минут на каждом размещении, убрать задержки в работе и человеческий фактор, а также красиво визуализировать данные.

Последние месяцы активно занимаюсь продуктом EasyFit AI — Telegram-ботом для контроля питания по фото. Основной канал нашего продвижения сейчас — influence-маркетинг через блогеров.

И столкнулись мы с типичной проблемой: когда количество размещений растёт, ручное ведение кампаний в таблицах превращается в узкое место.

Сегодня поделюсь практичным кейсом: как за 20 часов создал систему управления кампаниями с блогерами. Раньше всё велось в Google Таблицах, теперь — автоматизация процессов и экономия времени на каждом размещении.

В июльскую кампанию импортировал июльские размещения, а выше уже то, что запланировали на сентябрь — там 5 кампаний, сгруппированных по сегментам блогеров
В июльскую кампанию импортировал июльские размещения, а выше уже то, что запланировали на сентябрь — там 5 кампаний, сгруппированных по сегментам блогеров

Проблема: когда таблицы становятся узким местом

В EasyFit AI мы активно тестируем influence-маркетинг. Начинали с 10-20 размещений в месяц при бюджете около 50 тысяч рублей. Сейчас масштабируемся до 50-100 размещений при бюджете 250+ тысяч рублей.

Старый процесс выглядел так:

  1. Менеджер подбирает блогеров → мой партнёр согласовывает

  2. Менеджер договаривается с блогером, берёт реквизиты → передаёт на оплату

  3. Я вручную вбиваю платёж в банк и отправляю → отправляю подтверждение оплаты

  4. Менеджер запрашивает UTM-ссылку → мы даём через несколько часов (иногда на следующий день)

  5. Блогер выпускает пост

  6. Менеджер через неделю вручную вбивает статистику в Google Таблицы

  7. Потом повторно обновляет статистику через несколько недель

При малых объёмах это отлично работало, но с ростом количества кампаний становятся более критичными три проблемы:

Человеческий фактор: ошибки при переносе UTM-ссылок, дублирование платежей, неточности в статистике.

Задержки: ожидание UTM-ссылок затягивало запуск, ручной сбор статистики откладывал анализ результатов.

Время: на каждое размещение уходило лишние 3-5 минут на рутину, которую оказалось легко автоматизировать.

С ростом количества кампаний такой подход становится всё менее эффективным. К тому же анализировать эффективность разных сегментов блогеров в совокупности с эффективностью разных ТЗ по каджому сегменту в таблицах становится довольно затруднительно.

Буду тут эпизодически вставлять элементы интерфейса, чтобы было понятно о как это выглядит
Буду тут эпизодически вставлять элементы интерфейса, чтобы было понятно о как это выглядит

Решение: система аналитики для блогеров

Решил создать простую систему управления кампаниями, которая автоматизирует основные процессы:

Что получилось:

  • Автогенерация UTM-ссылок при согласовании блогера

  • Уникальные платежи без риска дублирования

  • Автоматическая синхронизация статистики в реальном времени

  • Автоматическое формирование платежей в банке

  • Аналитика по тематикам и эффективности размещений

Прошу прощения за чёрные квадраты — скрины делаю из админки с реальными данными
Прошу прощения за чёрные квадраты — скрины делаю из админки с реальными данными

Новый процесс:

  1. Менеджер подбирает блогеров → кофаундер согласовывает в интерфейсе

  2. UTM-ссылка генерируется автоматически

  3. Менеджер вбивает реквизиты в систему → платёж появляется в банке

  4. Я подписываю платежи пачкой

  5. Статистика синхронизируется с основным сервисом автоматически, а результаты наглядно видны в разрезе кампаний, блогеров, технических заданий и даже отдельных тематик каналов блогеров

Как это делалось: процесс разработки с ИИ

Стек и подход

Выбрал максимально знакомый для себя стек: Django + PostgreSQL + Redis + Celery. Причина простая — при возникновении проблем смогу быстро вклиниться в работу нейросети и исправить.

Основные инструменты:

  • Cursor

  • Claude Code

  • Perplexity Labs

Этапы работы

День 1: Планирование и начало реализации

Начал с описания идеи в Cursor. Попросил GPT-5 задать уточняющие вопросы, затем он составил подробную спецификацию. На планирование с подбором дизайна ушло час-два, после чего сразу приступил к реализации.

Задачи формировал в несколько этапов:

  1. Основная логика (модели, админка)

  2. Интеграция с UTM-аналитикой основного сервиса

  3. Интеграция с Т-Банком для платежей

Для понимания приведу пример документа, который у меня получился при планировании интеграции с основным сервисом для синхронизации статистики. Сначала при помощи нейросети я детализировал задачу, а затем разбил её на 2 промпта — один закинул в основной сервис для разработки нужного метода API, а второй уже для нового сервиса.

День 1-3: Основная разработка

Писал чисто промптами, в код практически не залезал. Cursor отлично справлялся с типовыми задачами Django-разработки.

Для сложных задач использовал интерфейс Cursor, для мелких правок — Claude Code. Cursor не так давно стал дороговат, а у меня давно есть подписка от Anthropic, так что теперь использую оба инструмента.

День 4-5: Интеграции и финальная доработка

Делал интеграцию с основным сервисом EasyFit и API банка. Здесь пришлось больше контролировать процесс и иногда дебажить вручную.

Ну и потом всё это прихорашивал, чтобы нужные данные были в нужных местах. Здесь не обошлось без багов, но нейронки справлялись за 1-2 промпта, так что лезть в код не приходилось.

Единственная трудность

Я лепил это всё в директории основного сервиса, в результате чего заметил, что Claude Code в некоторых задачах сильно тупил, когда я открывал его из корневой директории основного проекта. Например, пытался применять миграции Django из основного сервиса. Всё прошло, когда я начал открывать Claude Code из директории конкретно разрабатываемого сервиса.

Конкретные результаты

Оптимизация процессов

  • Время на размещение: сократил 3-5 минут на размещение, что на объёме в сотни размещений скажется довольно приятно

  • Задержки в процессе: сократил цикл с момента планирования размещения до анализа результатов минимум на пару дней

  • Человеческие ошибки: практически исключены

Новые возможности

Аналитика по тематикам: Теперь можем группировать результаты по нишам блогеров и видеть, какие дают лучший ROMI. В таблицах такой анализ занимал бы часы ручной работы.

A/B тестирование ТЗ: Планируем тестировать разные варианты технических заданий для блогеров — например, с упором на ценность похудения или упоминанием старых конкурентов.

Масштабируемость: Система легко выдержит рост до сотен размещений в месяц без увеличения количества сотрудников.

Что работает автоматически, а раньше делалось вручную

  • Генерация уникальных UTM-ссылок при согласовании

  • Оплата платежей в банке в один клик

  • Синхронизация статистики переходов и конверсий в реальном времени

  • Группировка аналитики по тематикам и блогерам

Дизайн за 5 минут

Отдельно, думаю, стоит упомянуть про дизайн. Если не задать какой-то стиль, то нейросети с большой вероятностью сгенерируют что-то не очень привлекательное. Поэтому для генерации референсов я использовал Perplexity Labs:

  1. Попросил придумать современный дизайн для системы управления кампаниями

  2. Выбрал понравившийся референс

  3. Скинул его агентам-разработчикам

Можно было бы сделать как-то более продуманно, но результат меня устроил, поэтому решил дальше не усердствовать.

Выводы

Подобная автоматизация стоит того, когда можно сделать её быстро. Если бы эта система требовала месяцы разработки, я бы даже не думал о ней. Но когда весь проект — вопрос 20 часов, то определённо стоит попробовать. Так что вайб-кодинг открывает новые возможности, которые стоит учитывать.

Если дальше усложнять систему, то она определённо потребует рефакторинга и полного погружения в код, но на данном этапе всё работает хорошо и пока этого не потребовалось.

Для тех, кто хочет попробовать:

  1. Выбирайте знакомый стек — при проблемах сможете быстро исправить

  2. Начинайте с детального описания задачи — попросите ИИ задать уточняющие вопросы

  3. Разбивайте на этапы — не пытайтесь сделать всё в одном промпте

Минимальные навыки: Достаточно базового понимания выбранного фреймворка. Если что-то непонятно — спрашивайте у нейросети детали.


Обо мне: Делаю стартапы с 2018 года, активно использую нейросети в разработке. О том, как использую нейросети в жизни и создаю продукты с минимальным бюджетом, рассказываю в своём телеграм-канале.

Мои проекты:

  • Buyer — метамаркетплейс брендовых кроссовок с выручкой в десятки миллионов

  • EasyFit AI — Telegram-бот для контроля питания по фото

Комментарии (13)


  1. mmMike
    09.09.2025 03:49

    А "бюджет кАмпании" - это нейросеть подсказала?
    Или имеется в виду "военная кампания" (Устаревшее.. Военные действия против кого-н., война.)

    Кстати, не знаю как другим, а меня "писать промпт" раздражает.

    1. текст промта получается как бы не длинней кода.

    2. текс промта (особенно чужой) лично мне зачатую сложнее понять (а что хотел то), чем код. Код лаконичней и понятней в большинстве случаев.

    А как то... из опыта.. если сделать строго по ТЗ (не общаясь с заказчиком), то в бооольшом проценте случаев получаеся хрень (заказчик: "а я имел в виду совсем другое").
    Для UI еще сойдет (хоть показать UI можно), то для чего то более сложного - возникнут проблемы.


    1. plus_stick
      09.09.2025 03:49

      Боюсь, имелись в виду маркетинговые кАмпании


    1. gooddaygood
      09.09.2025 03:49

      Господи ну ведь не было такой публики здесь 10 лет назад. Откуда вы нарегистрировались...


      1. uKap
        09.09.2025 03:49

        И не говори...


      1. mmMike
        09.09.2025 03:49

        Написал не подумав (параллельно еще много чем занимался)
        А вам равится пинать ошибшегося? Ок. бывает. Чего бы не пнуть.


    1. sguslya
      09.09.2025 03:49

      ну ты конечно даешь, да точно имелась ввиду военная кампания, какой кринж, а...


    1. obamarama
      09.09.2025 03:49

      почему именно военная и почему устаревшее? а что делать с рекламной и предвыборной? если вы русский язык только начали изучать, может слышали о слове campaign )


  1. achekalin
    09.09.2025 03:49

    Я вот не пойму, плакать или смеяться. Что за N часов одной левой сервис поднимается - вроде как хорошо. Когда он навернется, а поднять его тем же инструментарием ("третьи сутки умоляем GPT всей конторой!") не получится - будет неуютно.


    1. avshkol
      09.09.2025 03:49

      Это смотря на чём - к примеру, питон и джанго дают много информации, где чего навернулось.


    1. KartaloSt
      09.09.2025 03:49

      Обоснуйте почему не получится? Есть ли практический пример когда навайбкоденное не удалось поднять после продолжительного функционирования?


  1. avshkol
    09.09.2025 03:49

    Тоже мечтаю повайбкодить в паре-тройке заброшенных проектов, но катастрофически нет времени...