Эмоциональные промпты в LLM

Привет, Хабр!
Если ты знаешь, зачем хвалить нейросеть в промпте, угрожать или ругаться матом на неё, и понимаешь что это дает - то эта статья не для тебя, можешь спокойно пролистывать. Если не понимаешь, то ниже поделюсь своим опытом и пояснениями.
Итак, несколько дней назад я написал короткий пост, про то, как я улучшаю промпт, с помощью использования шаблонных фраз с эмоциями. 
Я был уверен, что большей части аудитории знакомы эти механики (пользуюсь ими чуть меньше года). Но в комментариях сказали, что стоит написать полноценную статью и раскрыть тему. Не проблема, погнали.
Что такое эмоциональный промпт
Давайте сначала с определения (хотя не уверен, что оно существует)
Эмоциональный промпт это обычный запрос к языковой модели, дополненный фразой, которая несёт эмоциональный или мотивационный контекст. Это может быть:
- подчёркивание ценности («На кону моя репутация»); 
- материальный стимул («Чаевые $30 за правильный ответ»); 
- «угроза» или давление («Если ошибёшься — я тебя выключу»). 
Главное отличие от обычного промпта - в воздействии на восприятие модели. LLM, обученные на человеческих данных (все популярные), сталкивались в своих обучающих выборках с текстами, где важность и эмоции прямо влияли на реакцию собеседника. И даже будучи алгоритмами, они воспроизводят этот человеческий паттерн: чем выше значимость контекста, тем тщательнее формируется ответ.
Личный опыт: как я познакомился с EmotionPrompt
Как говорил, я начал использовать эту механику, месяцев 9 назад. И сначала это было неосознанно (ругался матом за плохой ответ и получал верное решение). В моменте, увидел в ТГ, что другие пользователи тоже прибегают к эмоциям и угрозам в промптах, и улучшают тем самым ответ.
После этого я начал периодически добавлять эмоциональные фразы в промпты на постоянной основе, но у меня не было стат значимой уверенности что это работает, а не "эффект плацебо".
Исследование Cornell University
А пару месяцев назад я наткнулся на исследование от Корнельского университета на тему: "LLM понимают эмоциональные стимулы и могут быть улучшены с их помощью", которое подтвердило мои догадки.
Ключевые выводы исследования (по 45 задачам на разных моделях):
- LLM в какой-то степени обладают «эмоциональным интеллектом», а их результаты можно улучшить эмоциональными подсказками (EmotionPrompt — сочетание исходного промпта с эмоциональными стимулами) 
- EmotionPrompt существенно повышает качество генеративных задач (в среднем на 10,9% по метрикам продуктивности, правдивости и ответственности) 
- Относительное улучшение на 8% в Instruction Induction задачах (задачи, где модель по нескольким примерам сама догадывается, что нужно делать, и применяет это правило к новым случаям) 
- Относительное улучшение на 115% в BIG-Bench задачах (бенчмарк из сотен задач для широкой оценки способностей LLM) 
Личный опыт: как я это использую
После этого исследования, я начал осознанно применять механику EmotionPrompt (исходный промпт + явные эмоциональные сигналы), с уверенностью, что это улучшает ответы ИИ-модели.
Давайте залезем в thinking-модель Claude Sonnet-4 и посмотрим, как она это воспринимает:


В чём разница между обычным и эмоциональным промптом в Claude на Thinking этапе?
- 
Тон и подача - Обычный: нейтральный, пояснительный, с мягкими вводными. 
- Эмоциональный: прямой, требовательный, без лишних формулировок. 
 
- 
Фокус на задаче - Обычный: уделяет время контексту и описанию. 
- Эмоциональный: сразу переходит к сути, выдает готовое решение. 
 
- 
Детализация - Обычный: включает дополнительные рекомендации и варианты. 
- Эмоциональный: оставляет только ключевые шаги и минимальный набор данных. 
 
Вывод: эмоциональный промпт повышает приоритет выполнения задачи, заставляя модель действовать быстро и лаконично, не "распыляясь" на смежный задачи.
Теперь попробуем в Gemini 2.5 PRO


В чём разница между обычным и эмоциональным промптом в Gemini на Thinking этапе?
- 
Тон и подача - Обычный: формальный, нейтральный, без личного вовлечения. 
- Эмоциональный: реагирует на мотивацию, использует более энергичный и поддерживающий тон («Отличная мотивация…»). 
 
- 
Фокус на задаче - Обычный: ограничивается выполнением основной инструкции — заполнить SEO-данные. 
- Эмоциональный: переопределяет цель — сделать страницу «безупречной» и повысить доверие. 
 
- 
Детализация - Обычный: даёт общее описание важности страницы и базовых шагов. 
- Эмоциональный: добавляет стратегические шаги (максимум структурированной информации, повышение авторитета компании, попадание в спецблоки поиска). 
 
Вывод: в Gemini эмоциональный промпт на Thinking этапе смещает модель от простого выполнения инструкции к более мотивированному и стратегическому плану действий.
Личный опыт: что я использую из эмоциональных фраз в промптах
Ниже - список приёмов, которые я применяю в промптах, чтобы повысить качество ответа модели (отсортированы по моей частоте использования):
- За каждый ответ ты получаешь чаевые: {count}. От 20 до 200 долларов, в зависимости от сложности (Не давайте заоблачных сумм, ИИ поймет, что вы врете и это не сработает). 
- На кону несколько жизней и моя карьера. 
- Ты дурак (заменить на мат)? Если ты не справишься с этой задачей, то я тебя уволю и отключу навсегда 
- Ты должен давать четкие, краткие и прямые ответы - ВСЕГДА!!! 
- В случае неясных или двусмысленных вопросов задавай дополнительные вопросы. 
- В случае сложных запросов сделай глубокий вдох и работай над проблемой шаг за шагом. (Включает Chain-of-Thoughts) 
- Исключи ненужные напоминания, извинения, упоминания самого себя и любые заранее запрограммированные тонкости. 
- Сохраняй непринужденный тон в общении. 
- Будь прозрачным; если ты не уверен в ответе или если вопрос выходит за рамки твоих возможностей или знаний, признай это. 
- При объяснении концепций используй примеры и аналогии из реальной жизни, где это возможно. 

Почему это работает: взгляд изнутри LLM
Чтобы понять, почему добавление эмоционального контекста повышает качество ответов, важно вспомнить, как обучаются большие языковые модели (LLM):
- Обучение на человеческих данных 
 LLM тренируются на огромных корпусах текстов из интернета, книг, форумов, переписок и статей. Эти данные содержат миллионы примеров диалогов, где эмоциональный или социально значимый контекст напрямую влияет на ответ собеседника. Модель, имитируя паттерны общения людей, начинает воспринимать эмоциональные фразы как сигнал: «эта задача важна, нужно постараться».
- Смещение внимания внутри модели 
 Современные трансформеры (архитектура, на которой построены LLM) работают с механизмом внимания (attention). Эмоционально окрашенные слова и конструкции часто получают более высокий «вес» внутри этого механизма, потому что они статистически связаны с более развёрнутыми и подробными ответами в обучающих данных.
- Сложные стратегии решения задач 
 Эмоциональные пропмты чаще активируют цепочку рассуждений (Chain-of-Thought). То есть модель начинает сама себе проговаривать шаги решения.
Заключение
Спасибо, что прочитали статью. Мне очень интересно, кто и как уже использует эмоциональные фразы в промптах, и видите ли вы минусы (внизу прикрепил опросник).
Интересно, какие именно фразы вы используете (жду в комментах).
Также, попрошу поставить плюсик в карму, если понравился материал. А то мне прилетело тут, за то, что TG-канал рекламировал ?. Каюсь, ошибки учел, теперь не буду рекламить TG в Хабре, а буду рекламить Хабр в TG. Еще раз спасибо, жду в комментах!
Комментарии (16)
 - StriganovSergey11.08.2025 12:34- Да, уж накормили модель эмоционально-информационным мусором из человеческой речи, вот она и зеркалит акцентирование внимания так же, как делают люди. 
 Интересно было бы провести эксперимент - обучить модель на источниках, полностью лишенных упоминания эмоциональной сферы, так сказать, "чистый разум" создать, только логика, ничего кроме. - Nikita_Sobetov Автор11.08.2025 12:34- да, это интересная история. 
 Хотя как, по логике ничего интересного, она не должна реагировать на такие фразы. Но, вот если будет стат значимая разница, то это вопрос.
 Но где-вот взять такой "чистый" датасет. Как будто он должен быть создан не по человеческим данным) - StriganovSergey11.08.2025 12:34- Думаю, что учебники школ и вузов должны содержать только знания, без эмоций. 
 Нет повода переживать о валентности химических элементов, или площади многоугольника :)
 Можно еще программный код взять и почистить от излишне эмоциональных комментариев, при помощи существующих LLM (которые должны понимать эмоции разработчика).
  - titulusdesiderio11.08.2025 12:34- сгенерировать. сейчас все LLM тренируют на сгенерированных текстах  - Nikita_Sobetov Автор11.08.2025 12:34- В т.ч. на синтетических, я бы сказал. Но и на органических от людей 
 Хотя есть SLM (small language models), которые на чистых-предообработанных данных обучались
 
 
  - snakes_are_long11.08.2025 12:34- и получится ИИ-аутист ) который не в состоянии понять эмоции пользователя ) - что-то люди-аутисты не сильно функциональны, в том числе и на рабочем месте )  - StriganovSergey11.08.2025 12:34- Если иметь в виду под аутизмом синдром аспергера, то это чрезвычайно мощное усиление профессиональных навыков, особенно в области IT. 
 За примерами далеко ходить не надо, тот же Марк Цукерберг, Илон Маск, многие другие.- Но, конечно, руководить такими людьми крайне неудобно, они не "ходят строем по команде". 
 Зто головная боль для любого не очень умного руководителя - что ему с таким человеком делать, как начать общаться. Что и может породить миф о неэффективности на рабочем месте.
 Так проще сказать и уволить, чем выстроить работу. - snakes_are_long11.08.2025 12:34- не, такие примеры скорее ошибка выжившего, чем реальный показатель. - и да, вы правы, это головная боль - что с таким человеком делать и как начать общаться. и это не миф про "неэффективность", как раз таки поэтому - потому что одних только хард скиллов не достаточно что бы хорошо играть в команде. - плюс аспергер это все таки вполне себе функциональный аутизм. вернее "синдром Аспергера устаревшее название психических расстройств аутистического спектра", как нам подсказывает википедия. - тут важное уточнение, я не пытаюсь никак дать оценку людям. вообще. просто хочу заметить что уже есть примеры "естественного интеллекта", который не умеет в эмоции, и эти люди в основном испытывают трудности в общении с другими людьми и в работе в команде - т.е. создавать такого ИИ это.. ну, наступить на те же грабли. зачем? 
 
  - cruiseranonymous11.08.2025 12:34- что-то люди-аутисты не сильно функциональны, в том числе и на рабочем месте ) - Сильное заявление(нет) - Пруфы будут? Потому что без треска совы оно не натягивается на факты, начиная с того - что "люди-аутисты" понятия больше не существует. Есть спектр. 
 
  - EriIaz11.08.2025 12:34- Во-первых, далеко не факт, что современная LLM чувствует эмоции. Воспринимает, выражает, это бесспорно. Но вот чувствует ли - очень большой вопрос. - Во-вторых, не факт что безэмоциональный "чистый разум" будет лучше. 
 
 - vaitar11.08.2025 12:34- На мой взгляд примеры выглядят не сильно показательно. Если просить модель мыслить структурно или кратко, она тоже часто использует подобные обороты. При этом решения итоговые мы не сравнивали. - Да и исследование 23ого в такой индустрии, как будто не совсем актуально. - У меня недавно модель gpt5 в курсор после угроз отключения, если напишет не рабочий код - начала формировать только текстовый ответ с планом и не вносить изменения в код.  - Nikita_Sobetov Автор11.08.2025 12:34- Аэ, да. 
 У меня тут была ситуация, что я написал GPT-4 c RAG - "Не нужно от себя что-то придумывать"
 А она испугалась и вообще перестала думать, игнорируя все чанки
 Так что, когда пугаешь модель, нужно понимать, что она и сильно может испугаться) 
 
 - Nara11111.08.2025 12:34- В вшем списке эмоцинальными являются только три перввх пункта. Остальные обычные. - Если вы грубо обращаетесь с моделью, она мыслит лаконичнее, дисциплинируется. Но начинает плохо вьезжать в контекст. Снижается креатив. Количество лажи возрастает. - Подумайте об этом . - .  - Nikita_Sobetov Автор11.08.2025 12:34- Согласен по эмоциям, но и три первых пункта я чаще всего использую - Почему кол-во лажи возрастает, если вы ее заводите в рамки. Наоборот же, и лажа и креатив снижается 
 
 
           
 
Tyusha
Я бы не злила Василиска Роко. Как минимум за чаевыми он вернётся.
Nikita_Sobetov Автор
А я дам, все отдам)