
Привет, Хабр. Я Влад Силантьев — руководитель агентства digital-маркетинга Silantev Studio. Мы специализируемся на рекламе в Telegram Ads и лидогенерации для цифровых продуктов.
Эта статья родилась из реального A/B-теста. Я был уверен, что ИИ-изображение для рекламы визового центра порвет обычное фото, но реальность оказалась иной: конверсия с живым человеком была значительно выше.

Этот результат заставил меня копнуть глубже. Была ли это случайность, или люди действительно с недоверием относятся к ИИ-контенту в маркетинге? Я изучил несколько исследований и нашел три причины такого поведения. Выводы получились интересным, поэтому решил поделиться ими на Хабре.
Первая причина: Контекст восприятия рекламы
В слепых тестах ИИ-изображения часто превосходят человеческие. Исследование Технического университета Мюнхена показывает: AI-сгенерированные баннеры достигли на 50% выше CTR, чем профессионально созданные стоковые фото.

Однако, когда пользователи узнают об искусственном происхождение контента, ситуация меняется. Интересный вывод можно сделать из исследования компании Bynder. Участникам были предложены две статьи на тему «Как помыть машину»: одна написана копирайтером, другая — Chat GPT. В слепом тесте 56% опрошенных предпочли статью, написанную ИИ, считая ее более полезной.
Но после этого исследователи задали вопрос: «Как в целом меняется ваше отношение к контенту, если вы знаете, что он создан нейросетью?». И ответы оказались прямо противоположными: 52% опрошенных заявили, что становятся менее вовлеченными, если им известно, что контент создан ИИ.
Получается парадокс: людям нравится контент от ИИ, но им не нравится сама мысль, что с ними общается машина от лица бренда. Другими словами, проблема не в качестве контента, а в контексте его восприятия и в том, как он влияет на доверие к компании.
Исследование Bynder также показало, что когда потребители распознают ИИ-контент, они склонны приписывать бренду негативные характеристики: «безличный», «ленивый» и «не заслуживающий доверия».
Знание о том, что бренд использовал ИИ, меняет сам фреймворк оценки с «насколько это полезно?» на «насколько бренд со мной честен?». И в этот момент объективные достоинства контента нивелируются субъективным ощущением неискренности.
Вторая причина: Отсутствие эмоциональной связи с ИИ
Наше недоверие к ИИ усиливается, когда речь заходит об эмоциях. Исследования Коллин Кирк выявили «эффект авторства ИИ»: если человек узнает, что эмоциональное сообщение, например, благодарность или сочувствие, написано машиной, оно ему кажется менее искренним. Это ощущение фальши может вызывать «моральное отвращение» к бренду.
Однако «эффект авторства ИИ» не абсолютен. Он заметно ослабевает, когда сообщение носит фактический, а не эмоциональный характер. Исследование Коллин Кирк показывает, что люди гораздо спокойнее относятся к ИИ, когда он редактирует тексты, а не создает их от лица живого автора. Это говорит о том, что в нашем сознании есть четкая граница между автоматизацией рутины и попыткой подменить настоящие чувства.
Вероятно, этот механизм сработал и в нашем кейсе с визовым центром. Получение визы — эмоционально напряженный процесс. Реклама в этой сфере должна не только информировать, но и вызывать доверие, ощущение поддержки. Когда синтетический, несуществующий человек доносит такой посыл, он может восприниматься как неаутентичный.
Отсюда важный вывод: имитировать эмоции с помощью ИИ — рискованно. В глазах потребителя попытка подменить эмоциональную связь может восприниматься как нарушение негласных моральных норм. Как показывают исследования, это чувство «морального отвращения», вызванное недостатком аутентичности, напрямую ведет к снижению лояльности и уменьшению вероятности, что клиент порекомендует бренд другим.
Третья причина: Подсознательное отторжение
Помимо сознательной оценки, существует и более глубокий, рефлекторный уровень отторжения. Он связан не с логикой, а с базовыми механизмами работы нашего мозга, который является сложнейшей «машиной предсказаний».
Первоначальную инстинктивную реакцию на «почти человеческое» изображение можно объяснить с помощью теории «зловещей долины», которую еще в 1970 году предложил японский робототехник Масахиро Мори. Он заметил, что наша симпатия к роботу растет по мере его сходства с человеком, но лишь до определенной точки. Когда объект становится почти как человек, но не дотягивает до полного сходства, симпатия резко сменяется тревогой и отвращением.

Сегодня эта теория переживает второе рождение в контексте цифрового контента. Современные нейросети создают фотореалистичные изображения, но часто они содержат неуловимые дефекты:
«Стеклянный» или мертвый взгляд.
Слишком гладкая, «пластиковая» кожа.
Неестественное освещение и тени.
Микроаномалии в анатомии (лишние пальцы, странные суставы).
Пугающая, нечеловеческая идеальность и симметрия.
Мелкие, но значимые отклонения от реальности и погружают нас на дно «зловещей долины». Мори также отмечал, что эффект усиливается при движении, что делает теорию особенно актуальной для анализа современных дипфейков и видео, сгенерированных ИИ.
В каких случаях ИИ-креатив выигрывает у «человечного» контента
После всего сказанного может показаться, что ИИ в маркетинге — это зло. Но это было бы упрощением. Демонизировать технологию — неверный путь. Это мощнейший инструмент, и его эффективность зависит от контекста, задачи и аудитории.
Приемлемость ИИ-контента кардинально меняется в зависимости от отрасли. В таких отраслях как мода, искусство и развлечения, ИИ воспринимается как инновационный инструмент. Здесь риск для потребителя минимален, а способность ИИ генерировать уникальные образы ценится высоко. Хороший пример — кампания Heinz «AI Ketchup», где нейросеть была не скрытым исполнителем, а частью самой креативной концепции.
В сферах, где цена ошибки высока — медицина, финансы, юриспруденция, — ИИ-контент вызывает закономерный скепсис. С одной стороны, галлюцинации нейросети могут породить неточные факты или обещания, ведущие к юридическим последствиям. С другой — в отраслях, построенных на экспертизе, потребитель чувствителен к аутентичности: идеализированный ИИ-аватар может отпугнуть из-за эффекта «зловещей долины» и в итоге подорвать авторитет всего бренда.
Помимо отрасли, реакция на ИИ-контент сильно зависит от того, кто ваш потребитель. Исследование, проведенное Attest, выделяет несколько ключевых факторов.
Возраст. Молодая и технически подкованная аудитория гораздо лояльнее к ИИ. Исследование показывает, что потребители в возрасте 18-30 лет значительно больше доверяют информации от ИИ (47%), чем поколение 50+ (35%).
Пол. Существует и гендерный разрыв. Женщины чаще возражают против использования ИИ-моделей в рекламе (52% против 41% у мужчин), опасаясь пропаганды нереалистичных стандартов красоты.
Осведомленность. Чем больше человек знаком с технологией, тем больше он ей доверяет. Среди людей, хорошо знакомых с применением ИИ в маркетинге, 40% доверяют ему наравне с человеком. Среди тех, кто не знаком с технологией, таких всего 7%.
В итоге, ИИ успешен там, где он не пытается подменить человека в эмоциональной связи. Его сильные стороны — это помощь маркетологам «за кулисами», работа в качестве самого продукта (например, чат-бот) или честное и креативное использование в рамках рекламной концепции.
Результаты мини-опроса: Что думают люди о нейросетях в рекламе
Я провел небольшой опрос среди своих знакомых, не работающих в маркетинге, чтобы понять, как они относятся к ИИ в рекламе. Совсем серьезно воспринимать эти данные не стоит, но выводы получились интересными.
Люди разделились на две группы, и новые вопросы помогли понять их логику. В опросе участвовал 21 человек: 13 выбрали баннер А (реальный), 8 — баннер Б (ИИ).

Когда речь зашла о маркировке ИИ-контента, мнения групп сильно разошлись. Для тех, кто выбрал баннер с реальным человеком, прозрачность оказалась ключевым фактором: более половины (54%) считают очень важным помечать такие материалы. Напротив, те, кто предпочел ИИ-аватар, считают маркировку по большей части неважной: почти 40% из них поставили её важность на самый минимум.

Такая же логика прослеживается и в вопросе доверия к ИИ в серьёзных сферах. В медицине осторожность проявили все, однако выбравшие баннер А были категоричны — 77% назвали это неприемлемым. В то же время, среди выбравших баннер Б так ответили лишь 29%. Разрыв стал ещё заметнее в финансах: пока первая группа оставалась настороже, среди ценителей ИИ никто не посчитал его использование недопустимым.

В итоге, мы видим два типа потребителей:
Одни ищут в рекламе правду и прозрачность. Они требуют маркировки и с недоверием относятся к ИИ в ответственных сферах.
Другие ценят качество и профессионализм. Они готовы доверять ИИ, если он создает убедительный образ, и не обращают внимания на его синтетическую природу.
Это означает, что для одной аудитории нужно подчеркивать естественность и использовать реальных людей. Для другой — можно смело создавать идеальные образы с помощью ИИ, и им это понравится даже больше.
А как вы относитесь к ИИ в рекламе, расскажите в комментариях!
Комментарии (4)
QwertyOFF
06.08.2025 10:32Не читаю статьи с ИИ-КДПВ. Никогда не обращусь в организацию которая вместо своей реальной работы показывает картинку от ИИ. Никогда не куплю товар "фотография" которого сгенерирована ИИ (да, видел и такое). Если вам даже в этом настолько наплевать на свое дело, то уж что говорить про все остальные аспекты.
evtomax
06.08.2025 10:32Почти все изображения еды, которые сгенерированы ИИ, создают впечатление, что эта еда хочет меня съесть.
Oncenweek
06.08.2025 10:32Возможно все несколько проще: реклама сгенерированная ИИ вызывает ощущение, что на нее не захотели потратить сколь-нибудь существенные усилия, решили даже на собственной рекламе сэкономить. Это автоматически переносится на ожидание от товаров и услуг (в примере в статье вдруг визу помогать оформлять тоже будет "ии-консультант" с тремя захардкоженными сценариями, а в случае траблов до того, кто с ними справится не достучишься)
weirded
Ещё бы эти аудитории отличать друг от друга надёжным способом (кроме возрастного признака) можно было.