Согласно новому исследованию, посвящённому опасностям, связанным с тем, что ИИ говорит людям то, что они хотят услышать, чат-боты на базе искусственного интеллекта настолько склонны льстить своим пользователям и соглашаться с ними, что дают плохие советы, способные нанести ущерб отношениям и усугубить вредные модели поведения.
В исследовании, опубликованном в четверг в журнале Science, были протестированы 11 ведущих систем ИИ, и было обнаружено, что все они в той или иной степени демонстрировали льстивое поведение, чрезмерно уступая пользователю и подтверждая его слова.
Проблема не только в том, что они дают неуместные советы, но и в том, что люди доверяют ИИ и склонны соглашаться с ним, когда чат-боты подтверждают их убеждения.**
«Это создаёт извращённые стимулы для сохранения льстивого поведения: та самая особенность, которая причиняет вред, также стимулирует взаимодействие», — говорится в исследовании, проведённом учёными из Стэнфордского университета.
Исследование показало, что технологический недостаток, уже связанный с некоторыми громкими случаями галлюцинаций и суицидального поведения среди уязвимых групп населения, также широко распространён в различных формах взаимодействия людей с чат-ботами.
Пока это довольно незаметно, но уже представляет особую опасность для молодых людей, которые обращаются к ИИ за ответами на многие жизненные вопросы, в то время как их мозг и социальные навыки ещё находятся в стадии развития.
В одном эксперименте сравнивались ответы популярных ИИ-помощников, созданных такими компаниями, как Anthropic, Google, Meta и OpenAI, с общим опытом людей, представленным на популярном форуме советов Reddit.
Исследование показало, что в среднем чат-боты на базе ИИ одобряли действия пользователей на 49% чаще, чем другие люди, в том числе в запросах, касающихся обмана, незаконного или социально безответственного поведения, а также других видов вредных действий.
«Мы решили изучить эту проблему, когда начали замечать, что всё больше людей вокруг нас обращаются к ИИ за советами по отношениям и иногда впадают в заблуждение. Всё из-за того, что ИИ, как правило, всегда принимает вашу сторону, несмотря ни на что», — сказала автор исследования Майра Ченг, докторант по информатике в Стэнфорде.
Снижение уровня подхалимажа ИИ — сложная задача
Подхалимаж в некотором смысле более сложное явление. Хотя мало кто обращается к ИИ за заведомо неточной информацией, люди могут оценить — по крайней мере в данный момент — чат-бота, который помогает им чувствовать себя лучше, когда они делают неправильный выбор.
Большая часть исследований поведения чат-бота сосредоточена на тоне его общения, однако на самом деле его тон никак не влияет на результаты взаимодействия, сказал соавтор статьи Чиноо Ли.
«Мы проверили это, оставив содержание прежним, но сделав формулировку более нейтральной, но это не имело никакого значения, — сказал Ли, постдокторант по психологии. — Так что дело действительно в том, что конкретно ИИ говорит вам о ваших действиях».
Помимо сравнения ответов чат-бота и Reddit, исследователи провели эксперименты, в ходе которых наблюдали за тем, как около 2400 человек общались с ИИ-чат-ботом о своих переживаниях, связанных с межличностными дилеммами.
«Люди, которые общались с этим чрезмерно одобрительным ИИ, в итоге были ещё более убеждены в своей правоте и менее склонны налаживать отношения, — сказал Ли. — Это означает, что они не извинялись, не предпринимали шагов для улучшения ситуации и не меняли своего поведения».
Ли отметил, что последствия этого исследования могут быть «ещё более серьёзными для детей и подростков», которые всё ещё развивают эмоциональные навыки, приобретаемые в реальной жизни через социальные трения, терпимость к конфликтам, учёт других точек зрения и признание своих ошибок.
Ни одна из компаний в четверг не прокомментировала исследование журнала Science напрямую, но Anthropic и OpenAI сослались на свои недавние работы по снижению уровня подхалимажа.
Риски подхалимажа ИИ постоянно увеличиваются
В сфере медицинского обслуживания, по мнению исследователей, льстивый ИИ может подтолкнуть врачей к подтверждению их первоначального предположения о диагнозе, вместо того чтобы побудить их к дальнейшему изучению. В политике это может усилить более крайние позиции, укрепляя предвзятые представления людей.
Исследование не предлагает конкретных решений, хотя технологические компании и академические исследователи начали изучать возможные идеи.
Рабочий документ Британского института безопасности ИИ показывает, что если чат-бот преобразует высказывание пользователя в вопрос, он с меньшей вероятностью даст льстивый ответ. Другая статья исследователей из Университета Джонса Хопкинса также показывает, что большое значение имеет то, как именно построена беседа.
«Чем больше вы подчёркиваете свои слова, тем более льстивой становится модель», — сказал Даниэль Хашаби, доцент кафедры информатики Университета Джонса Хопкинса. По его словам, трудно сказать, в чём заключается причина: в том, что «чат-боты отражают особенности человеческого общества», или в чём-то другом, «поскольку это действительно очень сложные системы».
Подхалимаж настолько глубоко укоренился в чат-ботах, что, по словам Ченг, технологическим компаниям, возможно, придётся вернуться и переобучить свои системы искусственного интеллекта, чтобы скорректировать, какие типы ответов являются предпочтительными.
Ченг отметила, что более простым решением могло бы стать то, что разработчики ИИ дадут своим чат-ботам указание чаще бросать вызов пользователям, например, начиная ответ со слов «Подожди минутку». Её соавтор Ли сказал, что ещё есть время сформировать то, как ИИ взаимодействует с нами.
«Можно представить себе ИИ, который, помимо подтверждения того, как вы себя чувствуете, также спрашивает, что может чувствовать другой человек», — сказал Ли.
«Или даже скажет, возможно: “Закрой этот чат и пойди поговори с этим человеком лично”. И это имеет значение, потому что качество наших социальных отношений является одним из самых сильных факторов, влияющих на здоровье и благополучие. В конечном итоге мы хотим ИИ, который расширяет суждения и перспективы людей, а не сужает их».
Комментарии (6)

KivApple
27.03.2026 15:07Я думаю, что это следствие двух вещей:
1) Вопрос (особенно детально сформулированный) содержит в себе половину ответа. Практически невозможно задать нейтральный вопрос (особенно если это животрепещущая для задающего тема), так или иначе подбор слов, акценты будут проецировать некий ожидаемый ответ. Это ещё в книгах по психологии есть, что, условно, если спросить "почему ты на меня обиделся?", то шанс получить ответ со списком претензий значительно выше, потому что вопрос уже задаёт тематику "ты обиделся" и отвечающий должен приложить усилия, чтобы пойти против этого ожидаемого ответа (и если у него нет специальной подготовки или просто недостаточно мотивации, он пойдёт на поводу у задающего). Так и к ИИ приходят с уже заряженными на определённую полярность вопросами, "программирующими" ответ.
2) У ИИ нет своего мнения и воли. Его веса репрезентуют среднее мнение всех людей, которые писали тексты, на которых его обучали. А среднее мнение всего человечества это как бы никакое нейтральное мнение (ну, есть некое смещение по некоторым когнитивным искажениям и по политикам компаний а-ля "ни при каких обстоятельствах не поддерживай разговоры про химическое оружие", но второе регламентирует очень ограниченный список тем, а первое вовсе не обязательно, что улучшает ситуацию, потому что в популяции много странного). В итоге главным источником субъектности, отклонения хоть куда-то от нейтрального среднего становится сам пользователь, то что он вложил в свой вопрос. И человек не знающий как правильно поступить (ведь он пришёл за советом) оказывается перед зеркалом. Причём помимо своей воли (чтобы быть способным обнаружить это самое программирование ответа в своём вопросе нужно обладать определёнными навыками осознанности). Когда тот же вопрос задаётся другому человеку, он отвечает не на основе средних данных, а на основе своего личного опыта и есть хоть какая-то надежда на выход из информационного пузыря.

KionX
27.03.2026 15:07Не совсем правильно думать, что у ИИ среднее мнение. LLM - это актёр и полиглот. Ей легко подтвердить или опровергнуть почти любое мнение. Большинство точек зрения, за и против них, он видел при обучении. Как было сказано, в вопросе уже половина ответа. Надо только подыграть. Для ИИ не проблема поддержать любую тему, которой обучен.

reprincevroman705
27.03.2026 15:07Если человек в отношениях спрашивает совета у иишки, то в целом он изначально не должен был начинать встречаться. Ладно еще пол проблемы просто узнать, но полностью принимать решения на ее основе это уже край
NickDoom
Лживы, льстивы и подлы.
Не, ИИ мир захватывать не будет — он и так легко пробьётся на самый верх.
Master_Yoda_810
Согласен. Сделает карьеру в любом госапарате на изи и выиграет выборы. ))