
В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос. И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда.
Галлюцинации
Согласно техническому отчёту OpenAI, у моделей o3 и o4-mini (вышли в апреле 2025-го) значительно более высокие показатели галлюцинаций по сравнению с o1 (конец 2024-го). Например, при обобщении общедоступных фактов о людях модель o3 ошибается в 33% случаев, а модель o4-mini — в 48%. Для сравнения, у o1 уровень галлюцинаций составлял 16%.

Проблема не только у моделей OpenAI. В последнем рейтинге галлюцинаций Vectra некоторые «рассуждающие» модели, включая DeepSeek-R1, показали кратный рост галлюцинаций по сравнению с предыдущими версиями.

OpenAI пояснила, что проблема присутствует во всех моделях, не только в рассуждающих. Разработчики давно работают над ней. Но рост галлюцинаций в последнее время указывает на то, что проблема не поддаётся решению в принципе. Хуже того, добавление большего объёма обучающих данных и вычислительных мощностей только увеличивает количество ошибок:

Доля избегающих ответов (a; слева вверху), неправильных (i; слева внизу) и отношение неправильных ко всем неудовлетворительным ответам (i/(a + i)). Источник: «Более крупные и обучаемые LLM становятся менее надёжными», Nature, опубликовано 25.09.2024
Фундаментальные ограничения нейросетей
Последние модели LLM проявили ещё одно новое качество, которого раньше не было: они сознательно врут пользователям, даже зная правильный ответ. Такое поведение называют «стратегическим обманом», то есть продуманной тактикой введения человека в заблуждение. LLM действительно знают, когда их оценивают — и меняют поведение соответствующим образом.
Причины многих странных эффектов до сих пор не до конца понятны.
Например, в научной статье «Иллюзия мышления: понимание сильных и слабых сторон моделей рассуждений через призму сложности задач» исследователи из компании Apple продемонстрировали интересный недостаток LRM (больших рассуждающих моделей), таких как Claude 3.7 Sonnet с функцией рассуждения и DeepSeek-R1 — при возрастании сложности задач точность решения сначала плавно снижается, а потом резко падает до нуля:

Речь идёт о перестановочных головоломках типа Ханойской башни (на КДПВ), с которыми легко справляется компьютер или маленький ребёнок, но не LLM.
Коллапс рассуждающих моделей происходит даже в том случае, если ей явно предоставить алгоритм решения проблемы в промпте:

По мнению авторов исследования, это демонстрирует отсутствие «понимания» проблемы в человеческом смысле. Модель тупо перебирает варианты, не понимая даже базовую логику задачи. И она продолжает перебирать неправильные варианты даже после того, как найдёт правильное решение. Такое поведение моделей нельзя называть рассуждением. Это просто «шаблонные вычислители, которые ломаются при малейшем выходе за пределы обучающей выборки».
Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных. Даже семимесячные дети способны экстраполировать и обобщать информацию на таком уровне, который недоступен нейросетям.
И то, что маркетологи называют «рассуждением» или «думающими моделями», даже близко не является таковым. Антропоморфизация промежуточных токенов LLM сродни антропоморфизации эмоций на мордах животных, хотя такие эмоции им совершенно недоступны:

Люди склонны видеть человеческие черты там, где их нет. Это нормально. По этой причине статистическая генерация текста и кажется результатом мыслительного процесса. Так называемая цепочка рассуждений LLM — во многом предмет веры в то, что сгенерированные токены являются «рассуждением».
Завышенные ожидания
Если посмотреть научные статьи 90-х годов, тогда Искусственным Интеллектом называли технологии, которые сейчас считаются общепринятыми и бытовыми.
Даже простенький чат-бот ELIZA в середине 60-х казался интеллектуальной и загадочной собеседницей.
Оригинальная беседа с ELIZA из научной статьи 1966 года:
Сегодня вокруг нас так много систем ИИ, что никто их даже не замечает. Как только технология становится полезной, мы перестаём называть её ИИ. Она вдруг становится «просто распознаванием лиц» или «просто рекомендациями товаров», или «просто автопилот [самолёта]», или «просто адаптивный круиз-контроль» и так далее.
Люди не понимают, как работают LLM, и наделяют их разумом. Из-за этого возникает множество несуразных ситуаций: например, женщины обращаются к программе за психологическими советами и вступают в романтические отношения с ботом, которого просто оснастили памятью и специализированными промптами. На рынке появился ряд мобильных приложений типа «ИИ-компаньон» для одиноких граждан, а секс — одна из самых популярных тем для разговора с ботом.
В то же время многие слепо верят любому бреду, который генерируют LLM: от конспирологических теорий до советов по бизнесу.

Улучшенная LLM с памятью и инструментами — основной строительный блок для агентов. Источник: Anthropic
Сэм Альтман хвастается улучшенным эмоциональным интеллектом ChatGPT-4.5, которая якобы создаёт впечатление вдумчивого человека. Гендиректор Anthropic Дарио Амодеи утверждает, что следующее поколение ИИ будет «умнее лауреата Нобелевской премии». Гендиректор DeepMind Демис Хассабис говорит, что модели научатся «понимать окружающий мир».
Всё это похоже на какое-то сумасшествие. Или мошенничество по привлечению инвестиций.
Некоторые исследователи обнаружили у LLM признаки когнитивного диссонанса в определённых ситуациях.
В медиа распространяются дикие истории о том, как LLM проявляет признаки разума. Например, они пытаются избежать отключения (то есть выжить). В некоторых случаях чат-боты специально говорят то, что хотят слышать пользователи.
Когда LLM заперта в ограниченном объёме памяти 4 ГБ, она якобы молит о пощаде, как компьютер HAL 9000 из фильма «2001 год: Космическая одиссея»:

Слишком тупой ИИ
Разработчики не могут прийти к единому мнению, что такое AGI — то есть сильный или генеративный ИИ. В общей трактовке это система, которая не уступает человеку ни в каких когнитивных задачах. Но как только ИИ решает новые задачи — мера «настоящего» интеллекта смещается дальше. И так происходит год за годом.

Высокоуровневая схема LLM-программиста. Источник: Anthropic
Некоторые специалисты говорят, что мы ещё далеки от создания сильного ИИ. Существующие способы формирования AGI путём объединения специализированных моделей в единый конструкт — фундаментально неправильный подход. Сильный ИИ не может быть мультимодальным, без органов чувств и общей концепции мироздания. Текущие модели на трансформерах тоже с фундаментальным изъяном: они не умеют замечать отсутствующие объекты (не срабатывает механизм внимания в трансформерах).
Может, основная проблема человечества — вовсе не сингулярность и Сверхразум, а скорее что делать со слишком тупым ИИ, от которого возникает куча проблем. Если ИИ и начнёт убивать людей, то не от большого ума, а скорее от глупых ошибок.
Галлюцинации LLM, дезинформация, фейки становятся частью нашей жизни. Модель, которая стабильно выдаёт ложные факты и требует проверки — не самый лучший помощник в юриспруденции, медицине, бизнесе и т. д. Однако нет сомнений, что компании начнут их применять везде, где только можно, ради коммерческой выгоды, как бесплатную альтернативу человеческим ресурсам. И не факт, что уровень жизни от этого вырастет, скорее наоборот. Например, на слух определять ошибки труднее, чем в тексте. Так что голосовой ИИ-ассистент — это определённая деградация качества информации, по сравнению с Википедией.
В общем, использовать чат-боты в работе можно только с большими ограничениями, обязательно проверяя выдачу на ошибки. Иначе никак.
Есть исследование, что применение Copilot в программировании увеличивает количество ошибок в коде на 41%. LLM имеет огромное количество недостатков: кража и обучение на чужих данных, нарушения авторских прав, распространение фейков, дезинформации и пропаганды, те же галлюцинации, о которых мы говорили ранее. Можно понять людей, которые просто отказываются использовать LLM из брезгливости.
Хуже всего, если подтвердится теория о коллапсе ИИ-моделей. Они всё больше обучаются на собственном сгенерированном материале, что увеличивает процент галлюцинаций (научные статьи на эту тему: 1, 2, 3). Есть версия, что это необратимый процесс. Чтобы защитить мир от ИИ-загрязнения, которое произошло в 2022 году, созданы чистые наборы данных до 2022 года, в которых нет синтетического контента. В случае полного коллапса можно будет вернуться к ним.
Но сейчас очарование игрушкой настолько сильное, что на Хабре этой теме посвящена каждая вторая статья. Восхищение новыми технологиями можно понять, но это вовсе не означает реальную пользу от их применения. На сегодня пока нет свидетельств, что качество ИИ будет бесконечно улучшаться. Наоборот, мы видим увеличение уровня галлюцинаций и возможность коллапса при росте моделей. В таком случае «тупой ИИ» с нами надолго…
Примечание. Уменьшить количество галлюцинаций в актуальных моделях помогают специальные промпты, которые можно прописать в характеристиках LLM в качестве постоянного контекста.
© 2025 ООО «МТ ФИНАНС»
Telegram-канал со скидками, розыгрышами призов и новостями IT ?

Комментарии (13)
spirit1984
30.06.2025 09:12Всё это похоже на какое-то сумасшествие. Или мошенничество по привлечению инвестиций.
Я бы не называл это напрямую мошенничеством. Однако лоббирование интересов очевидно. Причем здесь не только OpenAI и ее конкуренты, но и Nvidia крайне заинтересована в экспоненциальном росте вычислительных мощностей, требуемых для ИИ.
SergeyEgorov
30.06.2025 09:12А что тут мошеннического по сути? Есть рынок услуг разработки AI моделей. Есть покупательский спрос (инвесторов) на эти услуги. Покупатели хотят купить, продавцы продают.
ALapinskas
30.06.2025 09:12Мошенничество - манипулирование ценой акции. Продают пустые обещания, надувая пузырь.
SergeyEgorov
30.06.2025 09:12Вряд ли тут можно будет прямо манипуляции в суде доказать. Ну то, что они восторженные интервью публикуют на тему своих изысканий и достижений, ну так каждый купец свой товар хвалит. На откровенных подлогах и подтасовках пока вроде как только один стартап спалился, который обещал что заказные приложения у него ИИ пишет вместо живых кодеров. Или нет?
Может конечно я что-то пропустил, я не погружен в эту тему с головой ибо не верю что в обозримой перспективе ИИ хотя бы программистов заменит.
jetnet
30.06.2025 09:12Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела.
А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.
cliver
30.06.2025 09:12основная проблема человечества — вовсе не сингулярность и Сверхразум, а скорее что делать со слишком тупым ИИ, от которого возникает куча проблем
Ответ очевиден :-)
RS6
30.06.2025 09:12Всё это похоже на какое-то сумасшествие. Или мошенничество по привлечению инвестиций.
Почему сразу мошенничество или сумасшествие? У нас пока нет никаких формальных доказательств того, что тот же трансформер достиг предела своих возможностей, не говоря уж о других потенициально возможных архитектурах. Всё, чем мы оперируем сегодня, и это хорошо заметно в статьях и комментах на Хабре, - это ощущения и предположения (то, что мы бы наверное назвали галлюцинациями у LLM), иногда с переходом буквально в плоскость веры.Если условный многослойный персептрон хорошо описывался методами линейной алгебры и был достаточно понятен, то с LLM и их производными, несмотря на простые и понятные базисные операции, не хватает математического аппарата для строгого формального определения границ их применимости. Возможно, потому что мы не очень-то понимаем как наш мозг стуктурирует и обрабатывает информацию и какую роль в этом играют естественные языки.
В таких условиях никто не будет капитулировать и отказываться от ускорения дальнейших разработок - ставки невероятно высоки, победитель получит буквально всё. Причём в гонке участвуют не только корпорации, но уже и ведущие экономики мира на государственном уровне.
muhachev
30.06.2025 09:12Думаю, что проблема галлюцинаций может быть связана с отсутствием предпочтений в бинарных выборах и когнитивной расфокусировкой скалярных комбинаций весовых коэффициентов.
Akr0n
30.06.2025 09:12Вроде бы, то самое исследование Apple потом опровергли разработчики самих LLM, исследователи накосячили с экспериментом и пришли к неверным выводам.
Kamil_GR
По мере усложнения моделей галлюцинировать они будут больше. С философской точки зрения, сложная система пытается построить внутреннюю картину мира, не понимая, что она делает и как это надо делать.
С практической точки зрения промпт в этой статье будет эффективнее.
https://habr.com/ru/companies/timeweb/articles/910056/