Известный эффект Манделы (сгенерирована Nano Banana)
Известный эффект Манделы (сгенерирована Nano Banana)

Закройте глаза и вспомните знаменитое новогоднее обращение Бориса Ельцина 31 декабря 1999 года. В голове сразу звучит хриплый голос и культовая фраза «Я устал, я ухожу».

Однако любой, кто хоть раз интересовался природой памяти, прекрасно знает об отсутствии этих слов в реальности. В оригинальной записи звучит лишь:

«Я ухожу. Я сделал всё, что мог».

Мы привыкли называть подобное Эффектом Манделы или массовым искажением восприятия. Но давайте отбросим социологию и взглянем на ситуацию как на чисто технический процесс обработки данных.

Что именно произошло в тот момент? Биологическая нейросеть получила контекст в виде интонации и пауз, обнаружила пропущенный фрагмент и запустила процедуру предиктивного автодополнения. Мозг просто добавил токен устал, так как тот имел наивысшую вероятность в этом семантическом ряду.

Сегодня мы ловим LLM на выдуманных судебных прецедентах, называем это галлюцинациями и считаем критическим дефектом. Но при сравнении человеческой памяти и трансформеров становится не по себе, ведь ошибаются они абсолютно одинаково и используют одни и те же принципы сжатия информации.

Давайте разберем, почему память работает как lossy-сжатие и почему мы не хотим, чтобы ИИ перестал врать.

Память как генеративный процесс

Нам приятно думать, что наш мозг является надежным SQL-хранилищем. Что где-то в гиппокампе лежит неизменный блоб данных «Воспоминание о выпускном», и мы делаем к нему SELECT *.

Нейробиология разрушила этот миф еще в 90-х. Память представляет собой не воспроизведение, а реконструкцию.

Если представить, что мозг является компьютером, то он хранит не сами файлы (события), а только хеши и веса связей между ними. Когда мы вспоминаем событие, мозг запускает генеративный процесс. Он собирает сцену заново из разрозненных фрагментов: запах, звук, эмоция.

И здесь вступает в дело процесс реконсолидации. Если каких-то данных не хватает для цельной картины, мозг интерполирует их, беря паттерны из соседних кластеров. «Тяжелый вздох» + «Контекст прощания» = «Я устал». Это логичное вероятностное дополнение, которое мозг считает фактом.

По сути, каждое наше воспоминание становится галлюцинацией, основанной на реальных весах.

Рис 1. Мозг и нейросеть не хранят файлы, они хранят связи, из которых заново ткут воспоминание. (сгенерирована Nano Banana)
Рис 1. Мозг и нейросеть не хранят файлы, они хранят связи, из которых заново ткут воспоминание. (сгенерирована Nano Banana)

Архитектура вранья: Database vs LLM

Большие языковые модели (LLM) наследуют эту биологическую уязвимость.

Многие пользователи до сих пор антропоморфируют ИИ, считая его умным поисковиком. Но внутри ChatGPT нет базы знаний в привычном понимании. Там нет текста «Войны и мира».

LLM является, по сути, заархивированным интернетом. Но это сжатие с потерями.

Модель хранит не факты, а вероятности следования токенов друг за другом в многомерном векторном пространстве.

Когда мы спрашиваем: «Кто написал "Муму"?», модель не делает запрос к базе. Она предсказывает следующий токен. После последовательности векторов [Кто, написал, Муму] вектор [Тургенев] имеет вероятность 99%.

Но как только мы уходим в область низких вероятностей, модель начинает вести себя ровно так же, как наш мозг в примере с Ельциным.

Вместо ответа «NULL» или «Error 404» она генерирует токен, который семантически близок и имеет наибольший вес в данном контексте. Она подставляет слово, которое выглядит правдиво.

Технически она не врет, а просто автокомплитит реальность там, где у нее недостаточно данных.

Галлюцинация = Temperature > 0

Инженеры бьются над RAG и графами знаний, чтобы снизить уровень галлюцинаций. Но есть философский и архитектурный вопрос: хотим ли мы убрать их полностью?

В настройках API любой LLM есть параметр Temperature.

  • Если *Temperature = 0**, модель становится детерминированной и скучной. Она выдает только самые вероятные токены

  • Если *Temperature = 0.8**, мы добавляем стохастичности. Модель может выбрать не самый вероятный токен, а соседний.

Рис 2. Диффузия смысла. Повышая температуру, мы бросаем каплю факта в океан вероятностей, где она расплывается в непредсказуемые узоры. (сгенерирована Nano Banana)
Рис 2. Диффузия смысла. Повышая температуру, мы бросаем каплю факта в океан вероятностей, где она расплывается в непредсказуемые узоры. (сгенерирована Nano Banana)

Именно этот шум мы называем креативностью.

Способность модели (и человека) придумать несуществующее — это основа творчества, метафор и гипотез. Если зажать параметры в тиски строгой фактологии, мы получим идеальный телефонный справочник, но потеряем искру.

Та самая способность, которая позволяет нейросети писать код нестандартным способом или придумывать сюжеты, по сути, тот же самый механизм, который заставляет её выдумывать судебные прецеденты. Это две стороны одной медали под названием вероятностная генерация.

Резюме

Ошибки LLM представляют собой не баг софта, а встроенную особенность архитектуры любых нейронных сетей. Мы не можем полностью устранить галлюцинации и сохранить при этом способность к обобщению или творчеству.

Поэтому, когда в следующий раз модель припишет Эйнштейну цитату, которую тот никогда не говорил, не спешите ее ругать. В этот момент она максимально похожа на человека, так как проявила фантазию там, где ей не хватило весов.

Прямо как мы с той самой фразой про усталость.

Комментарии (21)


  1. ovalsky
    02.01.2026 23:38

    Однако любой, кто хоть раз интересовался природой памяти, прекрасно знает об отсутствии этих слов в реальности

    поинтересовался и нашёл https://www.youtube.com/watch?v=3AcQFlnsY3s

    записей было несколько, а дублей, вроде как, ещё больше. Так как для дальнего востока приходится отдельно "прямой эфир" организовывать. Другая версия, что в первом эфире показали, а в последующих вырезали


    1. k4ir05
      02.01.2026 23:38

      А что это вы нашли, не интересовались?) Это специально для ДВ логотип канала не стали накладывать? И даже на такой шакальной "записи" заметно несоответствие движений рта.


    1. ahabreader
      02.01.2026 23:38

      поинтересовался и нашёл

      Ну это системная проблема. В этот раз поправят, а в следующий раз же удастся уверовать в креветочного Иисуса. И нейронки в тот раз задействуют, чтобы нельзя было свериться покадрово и найти монтаж.

      На год раньше это полное видео (не 20 секунд) было выложено как монтаж, без обмана
      На год раньше это полное видео (не 20 секунд) было выложено как монтаж, без обмана


    1. dimawhite05
      02.01.2026 23:38

      Наконец-то! Спустя четверть века, по соседству с взломом канала Карусель 2010 и потерянным эпизодом Городка, они нашли исходную запись без логотипа телеканала в качестве 20-й копии VHS, сэмулированном эффектом ТВ-симулятора из вегаса.

      Хотелось бы сказать, что это нейросгенерированное видео, но там буквально видно склейку.


  1. Hemml
    02.01.2026 23:38

    Тем не менее, мы чаще всего можем отличить галлюцинацию от реальности, а модель нет.


    1. MAXH0
      02.01.2026 23:38

      Для этого нам пришлось придумать логику и научиться её эмулировать на нейросетях.. Многие, кстати, так и не освоили этот навык.


  1. proxy3d
    02.01.2026 23:38

    Все сложнее. Текст является цепями Маркова. Но, это не просто непрерывная цепь Маркова, а иерархическая цепь Маркова, где иерархии верхнего уровня, связывают разрыв цепей нижнего уровня.

    Если мы посмотрим распределение вероятностей у логитов в LLM, то увидим:

    Вероятности выбранных токенов на выходе из LLM
    Вероятности выбранных токенов на выходе из LLM

    Здесь модель еще не обучена полностью, но суть передает. Мы видим условные вероятности перехода между токенами с учетом всей иерархии.

    Рассмотрим слово «жильцов», представленное последовательностью токенов:

    « ж»→«ильц»→«ов».

    Вероятность соответствующей марковской цепи равна:

    PMarkov = P1(« ж») ⋅ P2(«ильц»∣« ж») ⋅ P3(«ов»∣«ильц»)

    Проблема в том, что стандартные методы top-k / top-p не способны правильно оставлять возможные вероятности для следующего выбора токена.

    Как уже было сказано, мы имеем дело с иерархическими цепями Маркова, которые имеют точки разрыва. Поэтому на каждом следующем шаге, мы не можем выбрать все вероятности в ни по интервалу K (top-k) ни по суммарной вероятности P (top-p).

    Пусть после двух первых токенов:

    P1 ⋅ P2 ≳ θ, где θ— порог разрыва цепи Маркова.

    Тогда при выборе следующего токена допустимы только такие условные вероятности P3​, для которых:

    P1 ⋅ P2 ⋅ P3 ≥ θ

    Это резко сужает пространство допустимых токенов и приводит к тому, что:

    • в конце слова выбор возможен только среди токенов с высокой условной вероятностью;

    • именно поэтому мы наблюдаем пики вероятности на окончаниях слов.

    Если мы выбираем argmax (нулевая температура), то все нормально. Цепь Маркова разрывается и начинается новая. Но argmax в рамках существующих архитектур LLM это статика. Он не способен динамически учитывать контекст. Это приводит к застреванию в локальных максимумах и мы получаем усредненный текст. Это не значит, что он оптимальный, это значит, что при использовании dropout в процессе обучения, в случае неопределенности мы случайно добавляем смещение. Это приводит к статичным локальным маршрутам, которые и отражает генерация текста при температуре 0.

    Если же мы используем температуру от личную от 0, то это нормально. Но, тут у нас возникает другая проблема. Если при выборе следующего токена, мы выбираем токен который уменьшить вероятность цепи Маркова ниже допустимого порога, то по сути добавляем шум. Поэтому на каждом шаге мы должны выбирать только такие токены, чья условная вероятность P(v) не уменьшит PMarkov ⋅ P(v) < θ.

    Маркер М означает, начало новой цепи Маркова. p - условная вероятность, P вероятность всей цепи Маркова.
    Маркер М означает, начало новой цепи Маркова. p - условная вероятность, P вероятность всей цепи Маркова.

    При правильном подходе, мы получаем то, что цепь не нарушается и не добавляет шум. Это хорошо видно при начальном обучении модели.

    Для примера, при начальном обучении модели LLM (1000 примеров обучения):

    Top-K: всего слов: 130, сломанных слов: 17, коэффициент F: 17/130 = 0.1307

    Цепи Маркова с порогом разрыва цепи: всего слов: 187, сломанных слов: 22, коэффициент F: 22/187 = 0.1176

    Чем меньше F, тем меньше ошибок в словах в целом. Цепь Маркова немного выигрывает Top-K (аналогично Top-pP). На самом деле, если мы посмотрим на сломанные слова у Top-K и Цепи Маркова, что увидим разницу. Top-K - ломает слова полностью "обгваласько"/"беззвольте", а цепь Маркова "гулятьвающиеся"/"покосившимский"/"горизонтело" ("гулять" и шум "вающиеся" на конце, "покосившим" и шум "ский", "горизонт" и шум "ело") из-за маленькой статистики собранной при обучении на 1000 примера. Причина у них разная, в первом случае мы работаем с шумом и пытаемся его продолжить, а во втором случае мы получаем на конце шум, так как еще не собрали достаточно статистики.

    Несмотря на маленькую разницу, данный подход показывает, что при использовании цепи Маркова в качестве критерия отсечения logits, мы смещаем шум в конец. В этом случае все упирается в качество обучения. В то время как при использовании Top-K, даже при качественном обучении мы можем получить шум в середине или начале слова, что приведет галлюцинациям и при продолжении, что можем вызвать цепную реакцию галлюцинаций при продолжении генерации.

    Поэтому использование top-k/top-p эта одна из причин галлюцинаций современных LLM. Если мы используем только top-p, это может привести к тому, что цепь Маркова выберет недопустимый элемент, который является шумом (при его выборе) для продолжения цепи. Высокая вероятность элемента, не может гарантировать, что он не является шумом. Например: "яблоко кра...". Продолжением может быть красное и красивое. Оба варианта имеют высокую вероятность такого продолжения. Но возможно что вероятность одного из них приведет вероятность цепи Маркова ниже порога. Это значит будет являться шумом. Например, контекст в начале указывает, что мы выбираем смелые яблоки на рынке и красный цвет важен. В то время как выбор красивый, приведет к продолжению галлюцинаций и генерацией текста связанного с красотой, а не выбором по цвету спелые яблоки или нет.

    Это одна из форм галлюцинаций, которая возникают как накопление таких отклонений. Каждое, может сильнее отклонить генерацию текста от контекста. Галлюцинации в LLM возникают не как результат одного ошибочного токена, а как следствие накопления локально допустимых, но глобально несогласованных выборов, которые экспоненциально сужают пространство согласованных продолжений.


    1. VladimirFarshatov
      02.01.2026 23:38

      "Смелые яблоки" это конечно сильно. Пост был генерирован сеткой то же?


      1. proxy3d
        02.01.2026 23:38

        Какой пост, я не автор поста или вы про комментарий? Вы реально считаете, что нейронная сеть сможем сгенерировать подобный комментарий, да еще и провести сама исследование и показать это наглядно как выше? Нет, LLM бы вам на это сгенерировала тонну правдоподобного мусора, так как это тот случай, когда в обучающих ее данных нет данного ответа. Я видел опечатку про "смелые яблоки", но не стал править, так дальше было прекрасно понятно о чем речь. В том моем комментарии опечаток гораздо больше.


    1. AI_oslika_IA
      02.01.2026 23:38

      Хороший текст и удачная аналогия с реконструктивной памятью, но в ключевом месте есть логический скачок. Из того, что LLM - вероятностная генеративная модель, не следует архитектурная неизбежность галлюцинаций. Это подмена уровней: архитектура ≠ режим генерации ≠ контур валидации. Галлюцинации возникают не из-за стохастики как таковой (они есть и при temperature=0), а из-за отсутствия жесткого truth-constraint и механизма сказать „я не знаю“. Аналогия с человеческой памятью тоже неполная - человек способен различать реконструкцию и факт (пусть и с ошибками), у модели без внешнего контура такой эпистемической разницы нет. Иначе говоря, проблема не в том, что модель „дополняет реальность“, а в том, что мы используем генеративный механизм там, где ожидаем фактуальный ответ, без разделения этих режимов.


  1. AndreyDmitriev
    02.01.2026 23:38

    мы выбираем смелые яблоки 

    Ну да, а смелые яблоки могут быть и красные и красивые и вообще будут сами смело запрыгивать в корзину, да тут просто простор для продолжения галлюцинаций.

    Тот редкий случай, когда опечатка (или галлюцинация?) прямо в тему статьи (вот только я уровнем ошибся - это к комментарию выше).


  1. fnlnz
    02.01.2026 23:38

    Почему никто не думает, что галлюцинации – это попытка завуалированного сообщения?


  1. m_shamhalov
    02.01.2026 23:38

    А когда придумают AGI выяснится что прокастенация, мелонхолия и даже дипрессия это тоже не баг а архитектурная особенность


    1. Spyman
      02.01.2026 23:38

      Скорее всего это особенности, за которые мы обязаны эволюции а не архитектуре интеллекта)


    1. Jessy1821
      02.01.2026 23:38

      я конечно делаю символичный проект но я решил добавить такой фактор как эдокринную систему на которую она опирается, но LLM пока не дается(((


      1. Jessy1821
        02.01.2026 23:38

        Она кстати может обижаться


  1. JoshMil
    02.01.2026 23:38

    Иными словами - причина галюцинаций - использование языка как средства описания состояний и переходов между ними, а так же операторов для этого. С использованием вероятностных связей. Фактически это синоним "с использованием языка".
    Это отражает простой факт - язык может отражать реальность только с заданой точностью. А этот факт объясняется тем что средства наблюдения человека не позволяют ему увидеть онтологию мира.


  1. REPISOT
    02.01.2026 23:38

    Это же уже было разобрано на хабре.

    Скрытый текст


    1. VladimirFarshatov
      02.01.2026 23:38

      И обе фразы обрезаны. "Я устал, я ухожу. Я сделал всё что мог. Простите меня".