
Привет, меня зовут Кострюков Александр, я генеральный директор диджитал-агентства Panda Family и учредитель сервиса-агрегатора нейросетей aipanda.online - пока в стадии бета-теста.
Это мой первый опыт самостоятельного написания статей для Хабра, и, возможно, в ней будет мало конкретики и технических особенностей реализаций или, наоборот, мало бизнес-логики или расчетов. Если что, в комментариях могу дать более подробную информацию по тем или иным задачам.
Мое первое знакомство с нейросетями несколько лет назад(около 5 лет) было таким же, как у многих: восторг от технологии, смешанный с разочарованием от несовершенства и непонятным практическим применением. Мы использовали их эпизодически — сгенерировать картинку для поста, написать черновик письма, написать короткую SEO-статью. И так мы жили года два, пока я не попробовал первый раз Perplexity для глубокого анализа ниши одного из клиентов. Вот это был восторг, детальный разбор на 20 страницах с указанием 40 источников информации. Собранная и структурированная информация без галлюцинаций и выдуманных фактов. Показал клиенту, клиент решил, что мы привлекли внешнюю компанию для исследования.
Так мы пришли к первому кейсу — написание экспертных статей.
Кейс 1: Написание качественного контента и статей нейросетями
Задача: Написание глубоких экспертных статей и сложного текстового контента
Решение: Естественным желанием была прямая замена дорогого специалиста на ИИ. Ведь это основная и хорошо отработанная функция нейросетей — работа с текстами. Но первые же опыты привели к плачевным результатам: поверхностный текст, фактические ошибки и потеря уникального стиля автора. Поэтому мы отказались от идеи, что одна нейросеть напишет идеальную статью. Вместо этого мы построили конвейер, где каждый инструмент выполняет свою узкую функцию, а человек выступает режиссером и финальным редактором.
Сбор данных. Интервью с клиентом (голосовая запись 10–20 минут) — это основа. Без личности клиента, его стиля подачи информации и экспертности статья не статья. Если клиенту сложно начитать, то мы организовываем и записываем созвон, где задаем вопросы и клиент на них отвечает.
Транскрибация. Мы не используем один инструмент: Assemblity — для простых тем и длинных записей, OpenAI — для более сложных тем, но коротких записей (ограничение в 25 Мб на один файл), Eleven Labs — для самых «мутных» записей с акцентами или шумами. Экономия на этом этапе приводит к мусору на выходе.
Глубокое исследование. Perplexity AI в режиме «Deep Research» пробивает научные базы и блоги, находя то, что пропустил бы даже опытный копирайтер.
-
Синтез — самый сложный этап. DeepSeek мы научили объединять транскрипт (экспертиза клиента) и исследование (данные извне), отдавая приоритет первому. Промпт здесь — это целое техническое задание. И все равно с первого раза хороший результат получается только в 50% случаев. Но с русским языком работает очень хорошо.
Стандартный диалог с нейросетью:
- Напишите статью-исследование на 5000 слов!
*Выдает статью на 1000 слов
- Хозяин, вот ваша статья на 5000 слов. Я посчитал.
- Тут и 1000 слов не наберется! Нужно на 4000 слов больше!
- Хм, пользователь заметил, что статья слишком маленькая. Напишем нормальную большую статью.
*Выдает хорошую статью на 5000 словИли:
- Сохрани стиль автора из интервью.
- Когда буря мглою небо кроет…
- Это не Пушкин, а разработчик климатических систем. Сохрани стиль из прикрепленного интервью!
- Когда уровень освещенности снижается из-за облаков и температура падает, датчик подает сигнал… Ручная правка — без этого никуда. Копирайтер не пишет, а правит, проверяет, шлифует, добавляет личности. Его роль сместилась к редактору.
Вычитка и иллюстрации. ЯндексGPT отлично ловит стилистические ляпы. Для картинок используем Midjourney для сложных сцен и бесплатный Яндекс Арт для простых иллюстраций.
Результат: Мы смогли отказаться от штата «звездных» копирайтеров с узкой специализацией в пользу универсалов с хорошей логикой и навыком редактирования. Скорость выпуска контента выросла в разы, а качество не снизилось. Например, раньше одна экспертная статья для клиента в сумме занимала 12-18 часов сотрудников (включая сбор данных, транскрибацию и написание), сейчас это 2-4 часа.
Боли внедрения:
Сложность и дороговизна настройки всего конвейера.
Первое время статьи получались безжизненными, «склеенными». Потребовалось много времени, чтобы научиться писать промпты для этапа синтеза.
Постоянная необходимость контроля качества на каждом этапе.
Внедрили, порадовались. Дальше с одним из клиентов у нас была задача — создать обученного ассистента для первой линии поддержки в юридической фирме. Прошли путь с нуля, сначала пробовали дообучать модели при помощи fine‑tune (такая себе история). Привет галлюцинации, выдуманные факты и непредсказуемые ответы. Пришлось познавать принцип RAG. Собрали базу знаний из переписок с клиентами, векторизировали, загрузили в базу, сделали поиск по ней и передачу информации в нейросеть, написали промпты, и результат был прекрасен почти с первого раза, клиент доволен. Тут мне пришла идея (чего разработке пропадать?), что у нас есть вики по решению типовых задач в агентстве, и почему бы не сделать ассистента для сотрудников. Делов на пару дней(думал я, как же я ошибался). И так мы пришли к кейсу номер 2 — обучение и онбординг сотрудников.
Кейс 2: Обучение и онбординг при помощи нейросетей. Создание помощника для сотрудников.
Мы давно столкнулись с классической проблемой роста: чем больше команда, тем больше времени руководители и старшие сотрудники тратят на ответы на одни и те же вопросы новичков и коллег. Это создавало «эффект колеи» — процессы буксовали, а эксперты были постоянно перегружены. Простое правило «Сначала спроси ChatGPT» работало плохо. Поэтому взяли разработанную систему для клиента, взяли нашу вики‑базу и… получили полный провал. Вики писалась непонятно кем, когда, не обновлялась очень давно, поскольку ей мало кто пользовался, не содержала важной информации о возможных ошибках и критериях оценки при решении задач.
Этап сбора экспертизы — самая большая «боль внедрения». Мы обязали профильных сотрудников писать инструкции. Реакция команды была резко негативной: «Это отнимает время», «Я и так всё держу в голове», «Это лишнее». Возник даже скрытый саботаж — инструкции писались намеренно размытыми или с ошибками, из‑за страха, что их знания станут достоянием всех и их ценность как специалистов упадет. Мне пришлось лично вычитывать и проверять каждую инструкцию, что вылилось в 80 часов моей собственной работы.
Для инструкций собрали простой шаблон, достаточно универсальный:
ЗАДАЧА: [Что делаем]
ДОП ФОРМУЛИРОВКИ: [Как еще могут сформулировать задачу]
ДЕЙСТВИЯ: [Шаг 1 → Шаг 2 → Шаг 3]
КРИТЕРИИ УСПЕХА: [Как понять, что сделали правильно]
ЧАСТЫЕ ОШИБКИ: [Что может пойти не так]
Техническая реализация.
Сначала думали разработать сложную Agentic RAG-систему с заделом на будущее, но в итоге вообще решили проверить гипотезу на уровне naive (решение-то уже готово). Просто «нашел — подставил».
Стек для внутренней системы такой:
База данных:
PostgreSQL + расширение pgvector
Бэкенд:
Python + FastAPI
LangChain только для базовых компонентов, без фанатизма
Модели нейросетей:
Эмбеддинги: тут велосипед не изобретали, взяли OpenAI text-embedding-3-small
LLM: DeepSeek через OpenRouter(решили, что на первое время хватит, потом развернем свою LLM)
Развернули, загрузили данные, проверили работоспособность. Неделю где-то сами с разработчиками прогоняли различные модели поведения пользователей, вносили правки. Потом было коридорное исследование, еще сбор обратной связи, правки. Дальше внедряли по отдельным отделам: от более технически подкованных к менее. Начали с ИТ-менеджеров и дизайнеров, закончили бухгалтерией.
В сравнении с вики-базой.
Сейчас система не просто находит статью, а анализирует все связанные инструкции и формирует персональный ответ, закрывая именно его ситуацию. Это убирает главный недостаток вики — невозможность задать уточняющий вопрос.
Пример выдачи агента по регистрации нового клиента на сервисе e-Lama.

Результат:
Срок онбординга сократился с нескольких недель до нескольких дней. Новичок перестал быть «обузой», которая неделями ходит по отделам и отвлекает коллег вопросами.
Количество внутренних сообщений с вопросами «как сделать?» упало на порядок. Это разгрузило не только руководителей, но и всю команду.
Снизилось количество ошибок из-за недопонимания или «испорченного телефона». Инструкция от ИИ всегда одна и та же, в отличие от устных объяснений, которые каждый может передать по-своему (пойди найди потом виноватого).
Боль и затраты:
Сопротивление и саботаж команды.
Значительные временные затраты на старте (80 часов моего времени + 200 тыс. руб. внутренних ресурсов).
Прямые финансовые затраты (150 тыс. руб. на тесты, доработку и сервера).
Одно вынужденное увольнение из-за принципиального саботажника.
Окупаемость: Все затраты вернулись за несколько месяцев за счет снижения количества ошибок и высвобождения времени ключевых специалистов.
Ну и дальше, как говорится - понеслась.
Кейс 3: Обработка товаров для интернет-магазинов при помощи нейросетей
Задача: обработка десятков тысяч товарных позиций, включая описания, характеристики, фотографии, при помощи нейросетей.
Представьте: десятки тысяч товарных позиций, каждая из которых требует описания, обработки фото и структурирования данных для дальнейшей загрузки на сайты, системы учета, маркетплейсы и т.д.
Что обычно нужно сделать:
Найти товар в интернете или на сайте поставщика, взять характеристики (если их нет), взять описание.
Найти фотографию от поставщика, с его разрешения, конечно.
Структурировать технические характеристики, привести к единому виду и размерности, написать более грамотные описания для товаров, в среднем 500-1000 слов.
Найти среди товаров схожие по применению и характеристикам, собрать сводные таблицы с «похожими товарами».
Найти среди товаров дополняющие функциональность или расширяющие её, собрать сводную таблицу для «Не забудьте купить».
Обработать фотографии от поставщика: убрать водяные знаки (с разрешения поставщика), улучшить качество, убрать фон или заменить на какой-то единый фон, добавить техническую информацию для маркетплейсов на фото.
Повторить от 1000 до 100 000 раз, а иногда и до миллиона раз.
Раньше это был настоящий каторжный труд. Наш отдел контента месяцами перелопачивал сырые данные от поставщиков, вручную переписывая чужие описания, пытаясь привести к единому стилю. Производительность — 7–10 минут на товар, без учета фото, и это не исключало ошибок из-за человеческого фактора.
Мы решили, что это идеальная задача для тотальной автоматизации.
Решение: Вместо того чтобы пытаться улучшить ручной процесс, мы построили контент-конвейер:
Сбор данных: Google Таблицы + ChatGPT Nano + Perplexity.AI не просто собирает, но и структурирует хаотичные данные от поставщиков.
Написание текстов: Генерация в таблицах через DeepSeek с последующей «полировкой» ЯндексGPT. Это дает массовость без потери читаемости.
Изображения: Комбинация gpt-image-1, Clipdrop, Stable Diffusion и Pebblely AI позволяет и генерировать фото «из головы», и улучшать существующие.
Единственное, что не решал ИИ, это вывод технической информации на фото для маркетплейсов, для этого пришлось написать отдельный скрипт по обработке изображений.
Результат: задача на описание и обработку 10 000 товаров сократилась с 1100 часов до 40-70. Мы ускорились в 20 раз. Для одного клиента с 500 000+ товаров мы развернули и обучили собственную LLM и написали скрипты для пакетной обработки, сократив чек с 12 500 000 до 600 000 рублей на работы + 750 000 оплата нейросетей. Итого, экономия в 80% или более 11 млн рублей.
Боль внедрения:
Большие первоначальные трудозатраты на настройку всего пайплайна.
Требуется специалист, который понимает и в промпт-инжиниринге, и в логистике данных.
Постоянные сбои на каком-то из этапов требуют отладки и внимания.
Кейс 4: Документооборот и нейросети - можно ли доверить?
Еще одна большая боль — документооборот. Я заметил, что аккаунт-менеджеры и юристы буквально тонули в рутине: одни и те же типовые договоры, коммерческие предложения, расчеты. Ценные специалисты тратили время на шаблонную работу, которая отнимала силы и время для действительно важных задач.
Поэтому переосмыслили процесс — вместо того чтобы автоматизировать создание документов «как есть», мы разделили всю работу на три уровня сложности — и для каждого нашли свое решение:
Договоры: DeepSeek стал первичным юристом. Он анализирует договор клиента, вносит правки по нашему шаблону (промпт с учетом юр.базы), после чего ЯндексGPT ищет опечатки. Юрист подключается только к нестандартным и рискованным кейсам.
Коммерческие предложения (КП): Здесь подключили векторную базу с успешными КП из прошлого. DeepSeek не просто генерирует текст, а создает персонализированное предложение, основанное на конкретных задачах и конкретном клиенте.
Сложные расчеты: Научили DeepSeek анализировать историю проектов из таск-менеджера. Система может оценить, что лендинг с формой и интеграцией в Битрикс24 займет, например, 4 часа бэкендера, 6 часов дизайнера и 3 часа менеджера.
Результат: полной автоматизации не добились, юристы все равно проверяют документы. На первых порах 70-80% документов требовало доработки. Сейчас 70% уходит к клиенту без доработок. Ctrl+C, Ctrl+V.
Боль внедрения:
Страх и недоверие юристов. Им казалось, что ИИ все испортит. Пришлось внедрять поэтапно, с двойной проверкой.
Риск «галлюцинаций» в цифрах и формулировках. Ни один документ не уходит к клиенту без вычитки человеком.
Кейс 5: Нейросеть вместо дизайнера?
Мы не питали каких-то запредельных надежд и понимали, что дизайнера нейросеть не заменит. В ближайшее время — точно. Поэтому сосредоточились на решении некоторых практических задач: обработка фотографий товаров, быстрое создание визуалов для постов и баннеров, решение вопроса с авторским правом. С авторскими правами вообще история отдельная. Мы сами попали в ситуацию, когда старый фотобанк аннулировал лицензии, а наши клиенты начали получать претензии за использование картинок, которые были куплены легально. Стало ясно: нужно менять сам подход к созданию визуала.
Задача стояла двойная: не просто быстро создавать баннеры, но и полностью решить проблему с авторскими правами, перестав зависеть от стоковых фото.
Как и везде, универсального решения нет, для разных задач используются разные инструменты.
Креативные баннеры: GPT-Image отлично справляется со стилизованными сценами, например, в стиле комиксов.
Работа с фото товаров: Pebblely AI, GPT-Image и Clipdrop позволяют быстро менять фон, дорисовывать элементы и вообще делать конфетку из плохих фотографий.
Результат: 20-30% дизайн-задач закрывается нейросетями, и заодно получили полную защиту от претензий на авторские права.
Боль внедрения:
Невозможность точно воспроизвести бренд-бук. ИИ плохо запоминает точные оттенки цветов и логотипы.
Процесс остается итеративным и требует вкуса и контроля дизайнера.

*Пример генерации баннера через GPT-Image по нашему промпту
Автоматизация разработки при помощи нейросетей.
Этот раздел заслуживает отдельного поста от наших разработчиков, поэтому описывать все процессы не буду. Об эту тему здесь сломано не одно перо, очень кратко — Cursor, Replit и те среды разработки, которыми пользуются те или иные разработчики, с интегрированными Grok Fast Code, Qwen и Claude.
Общие проблемы внедрения нейросетей, с которыми столкнулись
Здесь я хочу подробнее остановиться на «болях внедрения», которые носили в основном человеческий, а не технологический характер.
1. Страх, психология и работа с ответственностью.
Люди боялись не ИИ, а ответственности. Вопрос руководителю — это часто не поиск ответа, а попытка снять с себя ответственность. Мы начали с масштабного обучения: провели серию воркшопов, показали, как работают промпты, и создали подробные инструкции. Мотивация и поддержка сработали лишь частично.
В итоге, для формирования привычки, нам пришлось ввести временный символический штраф в 500 руб. за вопрос руководителю, ответ на который был в базе знаний. Через месяц, когда у команды сформировалась новая привычка сначала обращаться к ИИ, штрафы были отменены. Это был неприятный, но необходимый шаг.
2. Провал коммуникации и профессиональная деформация.
Я, как технарь, считал основы работы с промптами очевидными. Для команды это была магия. Первая неделя после запуска чат-бота принесла в 3 раза больше вопросов! Мы собрали их все, разобрали и создали 10-страничный обучающий документ «Как разговаривать с нейросетью» (при помощи этой же нейросети), где простым языком объясняются основы промпт-инжиниринга. Это сняло 90% проблем.
3. Война с «галлюцинациями» и ошибками.
Нейросети врут. Даже основанные на RAG-архитектуре (эти еще не всегда находят нужную информацию). Они хоть редко, но придумывают факты и пропускают шаги в инструкциях. Наше правило: всё, что идет напрямую к клиенту или на что завязаны другие процессы, проверяется дважды. Сначала выполняется задача, потом дается промпт «Проверь выполненное на соответствие инструкции X и найди ошибки», потом проверяется человеком. Мы внесли это в общую инструкцию по работе с ИИ, чтобы сотрудники понимали: нейросеть — это помощник, а не безошибочный оракул, и финальная ответственность всегда лежит на человеке.
Заключение
Внедрение ИИ — это не технологический спринт, а организационный марафон. Самое сложное — не настроить модель и инфраструктуру, а изменить процессы и, что важнее, мышление команды. Это больно, дорого и требует полной вовлеченности руководства. Наш путь показал, что одного лишь приказа недостаточно. Нужно комплексно работать с людьми: учить, поддерживать, мотивировать, а в каких-то случаях — и применять жесткие управленческие решения, но только после того, как исчерпаны все остальные методы.
Но результат того стоит. Мы получили не просто «ускорение», а принципиально другую операционную модель: более быструю, масштабируемую и менее зависимую от «человеческого фактора». Наша команда теперь не боится рутины и может фокусироваться на том, что действительно требует креативности и стратегического мышления.
Буду рад обсуждению в комментариях, особенно тем, кто прошел похожий путь и нашел свои решения.