Народ выдает массовую острую реакцию на галлюцинации нейросетей. Выкатывают разработчикам претензии: «нейронка врет и игнорирует контекст!». Инженеры сначала пытались вяло отбиваться классическим: GIGO и RTFM. Но недовольство потребителя растет. Пошли биться над проблемой. Начали вкручивать RAG. Инженеры полагают, что галлюцинации — это математический баг. Они исходят из того, что в идеале машина должна работать как мышление у психически сохранного человека, а не как у шизофреника.
Сначала меня удивил масштаб этого хайпа. И я себя спросила: а почему я пару дней поговорила с нейросетью, увидела первый галюн и не удивилась, и не разозлилась? Я ей просто спокойно указала на несоответствие.
Инструменты и навыки. Здесь сработало два фактора.
Макроуровень — профподготовка. Я системно натренирована видеть баги мышления и галлюцинации у людей и относиться к этому спокойно. Работа с абсурдом — моя специальность и прямая обязанность.
Но это недостаточный ответ. Он мгновенно возносит психотерапевтов и сопричастных на Олимп, что совершенно не соответствует действительности. Не может быть, чтобы мое мышление работало принципиально «лучше», чем у инженера. Процесс в голове идет ровно тот же самый. Разница формируется лишь за счет поправок: как базовых, на уровне «железа» (врожденные способности, качество ЦНС), так и на уровне надстройки — «софта» (плотность нейронных связей: навыки, система координат и прочее).
Иллюстрация нашлась в быту. Кейс: баг белковой нейросети.
Вот пример того, как ломается человеческий промпт-инжиниринг на простой задаче. Я регулярно даю живым людям недвусмысленную вводную:
> [По паспорту я Ольга. Дома меня зовут Алена]
> Task: Выбери одно из двух.
Как вы думаете, что выдает в ответ белковая нейросеть? Она выдает: [Ты Лена].
Механика сбоя: Constraint Violation
Что здесь происходит с точки зрения мышления? Нарушение параметров (enum). Человеческий когнитивный аппарат не справляется с противоречием. Удерживать рамки задачи префронтальной корой — метаболически дорого. Поэтому мозг (Система 1) сбрасывает исходный промпт, ныряет в свою базу данных, находит привычный ассоциативный ряд (Алена -> Елена -> Лена), берет токен с самым высоким статистическим весом и выдает его. Искренне, уверенно и не приходя в сознание.
В психологии этот феномен называют когнитивным искажением — jumping to conclusions (прыжок к выводам). Чинится он банальным промптом: «непонятно — спроси».
Разработчики бесятся, когда LLM на просьбу «отвечай только да или нет» начинает рассуждать. Но, глядя на это через клиническую оптику, напрашивается гипотеза. ИИ не сломан. Возможно, мы воссоздали собственный баг. Как устранить его математически — вопрос вне моей компетенции.
Комментарии (3)

axion-1
19.04.2026 19:21> [По паспорту я Ольга. Дома меня зовут Алена]
> Task: Выбери одно из двух.
Ничего не понял. Выбрать одно из двух имён? И в чём сложность?

Daresays Автор
19.04.2026 19:21Человек слышит конструкцию «Ольга + Алена» и вместо того, чтобы удержать рамку задачи (выбрать из предложенных вариантов), его мозг по ассоциативной лени сливает их в привычное «Лена» — слово, которого не было в исходных условиях. Модель ломается не на логике, а на неспособности удержать внимание. Некоторые даже спорят. Прям как картину мира им взломали.
xabrxaxabr
Если вас уже домА зовут. то может быть к доктору...