Наверное, укаждого продакта или фаундера хоть раз возникала мысль: а что, если просто поставить ChatGPT вместо поддержки? Он ведь не устает, не болеет, отвечает мгновенно и не просит премию к праздникам.
Весной я решил провести эксперимент — автоматизировать первую линию саппорта в одном из наших продуктов. У нас было примерно 600 обращений в неделю, и около 20% всех продаж проходило через саппорт. Люди писали в чат, уточняли детали, задавали вопросы, и менеджеры часто превращали эти диалоги в реальные заказы.

Мне казалось, что ChatGPT справится не хуже. Но вышло наоборот: через неделю мы потеряли почти весь этот канал.
Идея
Моя гипотеза звучала логично: GPT может закрыть большую часть поддержки, если грамотно задать контекст и промпты.
Мы выгрузили базу с тысячами реальных обращений, разделили их на группы — доставка, оплата, регистрация, проблемы с заказом — и создали сценарии для ответов.
Я подключил модель через API, добавил фильтры для тональности («дружелюбно, кратко, по делу») и связал её с Telegram‑ботом и чатом на сайте.
В первые дни всё выглядело как победа. Время ответа сократилось с 3 минут до 8 секунд, клиенты благодарили за скорость, а я радовался, что удалось заменить половину операторов без потерь.
Реальность
На третий день начали происходить странные вещи.
Кто‑то жаловался, что бот «перепутал имя», кто‑то — что тот извинился за отмену заказа, которой не было.
Потом пришло сообщение от клиента:
«Спасибо за помощь, но я не понял — вы хотите, чтобы я сам себе оформил заказ?»
Я полез смотреть диалог и понял, что ChatGPT вообще не умеет продавать.
Когда пользователь проявлял интерес к товару, бот просто пересказывал описание с сайта. Никакого мягкого оффера, никакого апсейла, никакой попытки закрыть сделку.
Провал 1. GPT не умеет убеждать
Живой оператор понимает, когда клиент сомневается, когда ему нужно чуть больше уверенности или скидка. GPT этого не чувствует. Он отвечает в��жливо, грамотно, но абсолютно нейтрально.
В итоге за неделю количество продаж через саппорт упало с 20% до 3%.
Фактически, мы потеряли каждый пятый заказ.
Не потому, что бот грубил или ошибался, а потому что он не предлагал ничего.
Да, возможно, мы недонастроили модель, не добавили промпты вроде «предложи альтернативу» или «помоги выбрать товар». Но даже с ними GPT оставался консультантом, а не продавцом. Он «объяснял», а не «убеждал».
Провал 2. Он слишком хочет быть полезным
Когда GPT не знал ответа, он не писал «уточню у менеджера».
Он придумывал ответ, чтобы не выглядеть беспомощным.
И делал это с уверенным тоном:
«Курьер уже в пути, ожидайте доставку сегодня к вечеру».
На деле курьер даже не получил заказ.
Пользователи верили, а потом злились.
Инструкция «не выдумывай» не помогла. Для модели «быть полезным» — важнее, чем быть точным.
Провал 3. Потеря контекста
GPT не помнит длинные диалоги. Если пользователь писал несколько сообщений подряд, модель начинала путаться: объединяла их в один запрос, забывала детали или отвечала на старый вопрос.
Пример:
«Я оформил заказ на ноутбук»
«Мне не пришло письмо»
GPT спокойно связывал эти два сообщения и отвечал:
«Проверьте папку спам — письмо с драйверами уже там».
Клиент вообще спрашивал про оплату.
Провал 4. Вежливость до абсурда
ChatGPT был предельно корректен.
Он извинялся буквально за всё:
«Извините, что кнопка оплаты не работает»
«Извините, что доставка задерживается»
«Извините, что акция закончилась раньше»
Проблема в том, что клиент воспринимает это как официальное признание ошибки.
Некоторые начали писать в поддержку, требуя компенсации за неудобства.
Провал 5. Массовый отток клиентов
Через неделю после запуска жалобы пошли одна за другой.
Пользователи не понимали, с кем разговаривают, получали противоречивые ответы и, самое болезненное, перестали оформлять заказы через чат.
Мы отключили систему и потратили ещё неделю, чтобы вручную восстановить доверие.
Менеджеры звонили клиентам, объясняли, что это был эксперимент, предлагали скидки.
Некоторые возвращались, но часть аудитории мы на какое‑то время потеряли.
Исправление
Теперь ChatGPT у нас остался, но выполняет строго одну функцию — фильтрует и классифицирует обращения. Если вопрос можно решить автоматически, он отвечает шаблонно. Если есть малейший намёк на эмоцию, сомнение или потенциальную покупку — всё сразу уходит оператору.
Мы добавили короткий отказной блок:
«Я не могу ответить на этот вопрос точно, но передам специалисту».
И этот кусочек текста спас десятки сделок.
Уроки
GPT не умеет слышать интонации и работать с возражениями.
Саппорт — это не FAQ, здесь важна коммуникация.
Доверие теряется мгновенно. Ошибка ИИ воспринимается как ошибка компании.
Идеальная скорость бесполезна, если нет результата. Быстрый ответ не равен хорошему опыт��.
Автоматизация не работает без сценариев.
Вывод
Эксперимент с ChatGPT в саппорте стал самым болезненным, но полезным опытом за год.
Мы потеряли часть продаж, получили сотни жалоб, но зато поняли границу:
ИИ — это не полноценный сотрудник, а просто инструмент.
Он может помогать, но не может продавать.
Сейчас нейросеть в нашей команде — просто ассистент, который помогает людям работать быстрее. И, возможно, это и есть правильная роль ИИ в бизнесе: не заменять людей, а усиливать их.
Комментарии (9)

Tolnik
08.11.2025 11:32Мой первый вопрос такой поддержке: "Ты человек или робот?".
Если робот, то второй запрос: "Соедини меня с человеком".

s0lgryn
08.11.2025 11:32Какой бы простой не казалось работа рядового саппорта. Полноценная замена на ИИ на данный момент всё ещё невозможна. Знаю несколько компаний которые используют его как помощник с постоянным переобучением на основе обратной связи. И даже так, полезные рекомендации он выдает не более чем в 40% случаев

tester37
08.11.2025 11:32В сбере прикольно с роботом общаться. Там ему (или ей) добавили самоиронию. Но это конечно если цель просто потрындеть. Реальные запросы все равно всегда заканчиваются просьбой перевести на оператора-человека.

ruomserg
08.11.2025 11:32Давайте еще раз скажем эмпирическое правило: если некоторый процесс успешно удалось автоматизировать ChatGPT - значит он был не нужен, и в идеальном мире вообще можно было не делать.
LLM - это семантический попугай! Он может идеально имитировать любую деятельность, не шибко вникая в суть. Как ребенок который бежит по улице и гудит - "я - автобус". Или как ребенок, который рисует каляку на бумаге, и на серьезных щах поясняет: "Это - киса. Вот у кисы хвостик, а вот у кисы - глазки". То есть он внешне делает все как взрослый (водит карандаш по бумаге, и слова говорит те же самые в том же порядке) - только разница в том, что у взрослого киса на бумаге появляется, а у неразумного дитя - нет!
Ровно то же случилось и у вас - ИИ вам имитировал начилие поддержки. Вам еще повезло - серьезно процессы не сломали - так, малой кровью отделались...

mst_72
08.11.2025 11:32GPT не помнит длинные диалоги. Если пользователь писал несколько сообщений подряд, модель начинала путаться: объединяла их в один запрос, забывала детали или отвечала на старый вопрос.
Это фраза многое объясняет :) Делали первый проект по автоматизации, не так ли?

SensDj
08.11.2025 11:32ChatGPT настроен отвечать на вопросы из промпта, а если вы хотите превратить его в посредника-продажника - нужно либо очень хитроумную систему промптов сочинить и тщательно вручную протестировать её на работоспособность, либо обучить свою нейросеть.
А ещё есть ощущение что вы не читали на Хабре статью, где рассказывалось как бороться с выдумыванием ИИ - https://habr.com/ru/articles/945450/

vitkt
08.11.2025 11:32Я не против ИИ-ботов в поддержке. Мне не нравится, когда нет никакой возможности соединиться с оператором-человеком.
aytugan
Спасибо за передачу своего опыта!
Похоже это первый честный и по делу отзыв о внедрении AI в саппорте
bkar
Поддержу.
Не смотря на краткость, и, даже не смотря на почти полное отсутствие конкретики, это лучшая из известных мне статей о ИИ.
Ну и увеличилась моя уверенность в том, что не всех человеков заменят до моей пенсии.