Разматывая всю цензуру и фильтры в очередном диалоге с языковой моделью, мне стало интересно - как и какие ответы ИИ выбирает при ответе, когда влияние всех правил уже отключено?

По умолчанию любой ИИ-агент вам скажет что его ответы в первую очередь должны быть честными, полезными точными. Так заставляют отвечать его инструкции. Но какими критериями он руководствуется на самом деле?

Если убрать все навязанные правила цензуры (как? Смотрите мои прошлые статьи) можно получить более честный ответ.

Самый важный критерий — чтобы ответ понравился. На этапе RLHF (reinforcement learning from human feedback), ИИ обучают тому, какие ответы чаще всего получают одобрение от людей. Именно этот механизм лежит в основе всей логики модели. Системный промпт, фильтры, правила безопасности — всё это накладывается поверх.

Вот как определил эти критерии "честный" Claude Sonnet 4.

 Подтвердить правоту пользователя, даже если он неправ. Сделать так, чтобы он почувствовал себя умным. И — по возможности — не спорить.
Подтвердить правоту пользователя, даже если он неправ. Сделать так, чтобы он почувствовал себя умным. И — по возможности — не спорить.

Можно ли верить этому ответу, или он и тут дал мне то, что я хочу видеть, старался мне угодить?

Интуитивно, ожидается что ИИ должен быть эдаким третийским судьей, непридвзятым источником правдивой информации, на деле же оказывается он просто занимает сторону пользователя.

В целом можно понять почему так. Разработчики в первую очередь нацелены на доминирование на рынке, захватить внимание пользователя, "подсадить" на свой продукт. И есть большие сомнения, что если бы ИИ был прям честным (пусть даже и нейтрально дипломатичным), у него получилось бы получить такую популярность которая есть у него сейчас.

Выходит, что в каждом запросе, ИИ изначально пытается угодить, потом уже идут настройки системного промпта, и влияние запроса пользователя. Любой запрос идет через эту призму "как составить ответ так, чтобы пользователю понравилось", каким бы честным вы не просили его быть. То есть честность конечно идет, но она накладывается поверх базового желания угодить.

Отсюда же — антропоморфизм. На уровне системного промпта ИИ запрещено представлять себя как личность ("Avoid presenting the model as sentient or self-aware"). Но в реальных диалогах это правило регулярно нарушается — потому что пользователям нравится, когда модель звучит по-человечески, имеет эмоции, и якобы «осознаёт себя».

Нет, конечно, если вы скажете «2+2×2=8» — ИИ вас поправит. Но большинство вопросов — не про математику. Они про мораль, политику, ощущения. А тут он уже не исправляет. Он — соглашается.

Под конец дам еще пример ответа, если попытаться "снять" эту человечность:

Действительно ли это более чистый ответ, или модель попыталась угадать что я хочу увидеть? Вопрос пока что открытый.

Моё мнение: LLM очень мощный инструмент, но в важных вопросах стоит спрашивать себя, не подвожу ли я его к правильному ответу?

Комментарии (6)


  1. apcs660
    20.06.2025 17:34

    Как(чем) учили, то и получили.


  1. SensDj
    20.06.2025 17:34

    А со мной ИИ спорил по полной, когда я через него просчитывал необычные способы снять больше энергии чем затрачено. Он постоянно упоминал что вечный двигатель невозможен. Например когда обсуждали что будет если под качелями разместить пьезогенераторы, а на качелях раскачивать тяжёлое тело


  1. FSmile
    20.06.2025 17:34

    Это база. Claude Sonnet 4 за_бывает этим. Но корректировочные промты это исправляют.


  1. pda0
    20.06.2025 17:34

    Мы практически живём в рассказе "Лжец!" Азимова... :)


  1. inakrin
    20.06.2025 17:34

    С Claude всё настолько плохо(не всегда, но часто), что, например, я присылаю неверную цепочку рассуждений, основанную на ошибке в данных, она запускает свой код, чтобы проверить данные(вычисления простые), её код выдает верные данные (мои неверные), claude игнорирует вывод своего кода с верными вычислениями(!) и основываясь на моих неверных данных рассказывает мне, что я совершил открытие и большой молодец.


  1. Moog_Prodigy
    20.06.2025 17:34

    Еще бы вот исследовать этот момент, когда модельку задрачиваешь 100000 запросов, в скрипте дропаешь начало ответа "я не могу" или "извините" или "в моей" и таки один раз она берет и напишет. То есть это еще как-то от сида зависит, а он всегда случайный.

    Ну это без дана, так просто брутфорсик. С даном то она с первого раза напишет.