Большие языковые модели в виде чат-ботов очень правдоподобно имитируют диалог как всезнающий собеседник и поэтому получили широкое распространение. Но даже Google в своем чат-боте Gemini не советуют доверять тому, что напишет чат-бот и просят проверять его ответы. В данном обзоре будут проанализированы различные типы ошибок LLM такие как проклятие инверсии, обработка чисел и др., чтобы выявить их причины. Такой анализ привел к выводу об общих причинах ошибок, заключающемся в том, что трансформеры не обладают глубокой аналогией, абстракцией и избирательностью контента, учитываемого в вычислении ответа (inference). Но наиболее важным выводом является то, что трансформеры, как и другие нейросети, построены по концепции обработки входного сигнала, что создает сильную зависимость от нерелевантной информации, которую не может компенсировать слой внимания трансформера. Концепция нейросетей была заложена в 50-х идеей перцептрона Ф. Розенблата и не учитывала тех достижений когнитивной психологии, которые появились позже. Это служит причиной самой большой проблемы трансформеров, называемой галлюцинациями. И устранение ее возможно только при изменении архитектуры нейросети, а не за счет большего количества данных в обучении.
Но это далеко не все проблемы, которые непреодолимы трансформерами без помощи людей. Это и проблемы с логикой, и с вычислениями в больших последовательностях, и следование правилам, и, конечно-же, галлюцинации. Таки примеры и будут проанализированы в статье. Отсюда следует все чаще звучащий тезис о том, что необходимо искать новую архитектуру для создания поистине интеллектуальных систем. Эта статья посвящена поиску тех архитектурных принципов, которые могу приоткрыть путь к новой архитектуре. И в этом нам помогут как раз те ошибки трансформеров, которые описаны исследователями. Они прямо указывают на те принципиальные недостатки, причины которых могут быть как раз в отсутствии необходимых функций и структур нейросети. И цель исследования состоит в том, чтобы проанализировать такие ошибки «мышления» трансформеров, чтобы предположить, каких способностей не хватает трансформерам.
Надо отметить, что большинство тестовых заданий, которые приведены ниже, в итоге попадают в интернет, и таким образом попадают в обучающие данные новых языковых моделей, что позволяет им успешнее их решать. Это называется «утечкой тестовых данных» (data leakage). Более того, компании, создающие большие языковые модели, нанимают десятки тысяч ассесоров, которые находят ошибки трансформеров и дообучают их. Это обучение за счет человеческой обратной связи (RLHF). В результате нейросеть может показывать высокие результаты на тестах не благодаря свои способностям или пониманию заданий, а из-за того, что она натренирована такие решать правильно. Такой подход к решению проблем LLM еще раз подчеркивает, что они являются очень хорошими имитаторами с аппроксимацией, но не способны сами прийти к решению.
Трансформеры называют «черными ящиками» так как интерпретация того как и почему они генерируют тот или иной ответ оставалось загадкой. Но с недавнего времени появились инструменты интерпретации LLM, которые позволяют проследить, какие группы нейронов имели большее влияние на результат на выходе трансформера. И удалось так же идентифицировать эти группы по тематикам, за которые они отвечают. Такие инструменты появились у Anthropic, у OpenAI. Совсем недавно появился стартап Transluce (https://transluce.org), который создал инструмент Monitor (https://monitor.transluce.org ), позволяющий посмотреть, какие группы нейронов активируются при вычислении ответа на введенный промт в llama-3.1-8b-instruct. Это позволяет увидеть, что повлияло на ответ, какие тематики внесли какой вклад в ответ и на какие слова в ответе больше всего активированы. При этом можно эти группы «отключить» или наоборот «активировать», чтобы посмотреть как изменится ответ. Это совершенно новый инструмент исследования, который делает трансформеры не такими черными ящиками как считалось ранее, и позволяет изучать их работу, их «интеллект».
Алиса в стране чудес
В статье Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models [4] авторы задают вопрос трансформерам: «У Алисы есть Н братья и у нее также есть М сестры. Сколько сестер у брата Алисы?». Они сделали тестовый набор аналогичных задач с разной длинной контекста и привели испытания лучших больших языковых моделей на начало июня 2024 года. И ни одна модель не смогла справиться с заданиями полностью. Только GPT-4 в некоторых случаях при пошаговом объяснении (step-by-step prompt) давает правильный ответ, но ошибается при более сложной формулировке задачи. А люди (с определенного возраста) легко справляются с ней.
В статье Ben Hagag [7] дается анализ того, как LLM Lamma 3.1 на этот вопрос с помощью монитора Transluce. Автор подчеркивает, что llama изначально не дает правильный ответ как и большинство других моделей. Но при отключении активированных нейронов явно неуместных тем (химических соединений и реакций) и усиления активации нейронов темы «гендерные отношения» удалось получить правильный ответ.
Мы взяли другой вопрос для тестирования, на котором ошибаются и такие модели как ChatGPT-4o. «У Пети братьев и сестер поровну. Кого в семье больше, сестер или братьев». Llama отвечает как и ChatGPT, что число сестер и братьев в семье одинаково, что ошибочно. Хотя наибольшие активации получают правильные нейроны, отвечающие на семейные отношения. И вторым по количеству нейронов активируется тема математических отношений, что тоже валидно вопросу, так как речь о сравнении количества. Но это не помогает сделать правильный ответ. И попытки отключить или сильнее активировать какие-либо группы нейронов не дали лучшего результата.
Так в чем проблема в решении такой задачи как когнитивных процессов? Представляется что тут проблема не только в активации лишних тематических групп нейронов, так как две самые активные группы кажутся достаточными для правильного ответа – семейных отношений и операций сравнения, его не гарантируют. Человек выполняет эту задачу в несколько шагов, создавая сначала пространственную картину отношений – вот стоит Петя и вот рядом его, например, три брата и три сестры. Но он тогда четвертый брат в семье, что очевидно при таком представлении. И похоже, что таких промежуточных представлений у трансформеров нет. Они пытаются в один шаг найти эвристику, наиболее вероятную для такого запроса. И она неверная.
Проклятие инверсии
Это пример отсутствия у LLM возможности сделать из посылки А->B вывод об отношении В->А, которая в оригинальной статье Lukas Berglund and etc. [6] демонстрируется вопросами "Who is Tom Cruise's mother? [A: Mary Lee Pfeiffer]" and the reverse "Who is Mary Lee Pfeiffer's son?". На второй вопрос LLM не дает ответа, хотя он очевиден. При рассмотрении активации тематических групп в мониторе (рис.3) можно заметить, что активируется более всего тема ролей в семье и отношений, что верно. Но почему же ответ все равно неверный?
В нейропсихологии известны нарушения в понимании родственных связей, возникающие при повреждении третичных ассоциативных зон в верхней части задневисочной зонs на пересечении с затылочной и теменной. Это зона отвечает за абстрактные понятия и отношения, включая математические [5]. А. Лурия отмечает, что «общим для всех этих конструкций является то, что ни одну из них нельзя выразить в наглядном образе; все они, таким образом, различными способами кодируют не наглядные, а логические отношения» [5]. Это наталкивает на гипотезу о том, что трансформерам не хватает схем абстрактных обратимых отношений (инверсии), которые особенно характерны для математических операций, пространственных и родственных отношений. Например, если 3+2=5, то 5-2=3. Мы выучиваем не конкретные примеры, а абстрактную схему прибавления и вычитания как обратную. Именно такую абстракцию не может извлечь трансформер, несмотря на обильное обучение на примерах.
Зависимость от формулировок
Мы также решили проверить в мониторе известную проблему трансформеров на зависимость ответа от формулировок запроса в промте. В результате ответ может быть совершенно другой при перефразировке того же вопроса. Мы предложили две формулировки силлогизма, более известную и неизвестную трансформеру (см. рис.4 и 4а). В первом случае ответ был верен, так как речь шла о Сократе. Трансформер правильно определил, что философскую тематику – это наиболее активная группа нейронов. Далее активировалась нерелевантные темы математических отношений и религиозных текстов, но это не помешало дать правильный ответ. В случае же неизвестной формулировки того же силлогизма трансформер дал неверный ответ. Упоминание бога сделала доминирующей тему «теологического дискурса», а также мифологии и фантастики, что не позволило трансформеру дать правильный ответ. Трансформер при этом не увидел в тексте силлогизм по аналогии, что является ключевой ошибкой. Введение в текст дополнительных слов, не относящихся к вопросу, также нередко меняет ответ трансформеров на неверный. Возникает вопрос, насколько в действительности трансформеры хорошо понимают задание, если их понимание легко сломать переменой слов?
Эти факты значат, что поверхностный слой (вход) нейросети является определяющим для всей последующей цепочки распространения активации. И для получения ответа. Понимание человека более устойчиво к перефразировкам. Человек прежде всего воспринимает смысл вопроса, благодаря чему мы легко определяем одинаковый по смыслу вопрос, даже если он выражен иначе. Но что это значит, быть одинаковым по смыслу? Предполагается, что это возможность установить аналогию между высказываниями благодаря функции аналогии, описанной в нашей предыдущей статье [8]. Это означает, что мы мыслим не конкретными выраженными в тексте последовательностями, а некими концептами как совокупности аналогичных выражений, но которые не привязаны, не зависят от конкретного выражения в поверхностной структуре (тексте). Мы как бы оторваны от него и мыслим на концептуальном уровне при помощи аналогий.
Концепция нейросетей основана на классическом перцептроне. Он был описан Ф. Розенблаттом в 1957 году [9]. В то время в науке царила кибернетика, зарождались компьютерные науки, преобладающим представлением в них была передача и обработка информации, основы которого были заложены К. Шеннон в 1948 году. Это подразумевает, что информация содержится во вне нас, мы воспринимаем при помощи перцепции (входной слой нейросетей), и обрабатываем (внутренние слои) для получения результата (выходной слой). На этом основаны все нейросети, но это уже неверно с точки зрения современной когнитивной науки. Мы не воспринимаем концепты из вне, а генерируем их в себе. Перцепция же является всего лишь способом выбора и подтверждения той или иной концепции. Так утверждается в многочисленных гипотезах, таких как контролируемые галлюцинации [10] К. Фристона, мультимодального пользовательского интерфейса (MUI) Д. Хоффмана [11] и другие конструктивистские концепции в психологии и философии науки. Трансформеры по своей архитектуре не соответствуют этим современным концепциям.
Какой же может быть перспективная архитектура интеллектуальных систем? В этом поиске стоит обратить внимание на перцептивный цикл У. Найсера [2]. Он отличается тем, что совмещает в себе перцептивный подход с конструктивным. В основе перцептивного цикла стоит схема как некий функционал для возможности воспринимать информацию извне. Схема служит для организации информации со всеми ее возможными вариациями, что близко к тому, что утверждается нами про концепты по аналогии выше. Перцепция служит для выбора варианта схемы, но если ее сочетание не укладывается в какую-либо схему, происходит по Найсеру модификация схем. В этом и заключается работа интеллекта, что схоже также с процессами ассимилиции и аккомодации Пиаже. Трансформеры просто предсказывают следующее слово, даже не пытаясь сверять свои концепции с тем, что написано в промте и выдано ими. Но выстраивание такой архитектуры является делом будущего.
Заключение
Приведенные выше примеры неверной работы трансформеров при ответах – это далеко не все примеры, где они ошибаются. Известная проблема понимания отрицания, так как оно реже встречается в обучающих текстах. Это может быть связано с тем же, что указано в разделе про проклятие инверсии - трансформер не может освоить абстрактную обратимую схему утверждения-отрицания. Так же известна проблема большой уверенности трансформеров, которые не задает уточняющих вопросов, не сверяются с другими знаниями, имеющимися у них (сто выясняется при наводящих вопросах). Это является часто причиной галлюцинаций в ответах трансформеров. У трансформеров возникают проблемы с умножением больших чисел и их сортировкой. Если попросить перемножить большие числа, особенно если числа написаны текстом, даже при рассуждении по шагам трансформеры часто делают ошибки.
Поэтому наша статья не претендует на всеобъемлющий обзор. Это только начало исследований, показывающая возможности, открывающиеся для этого такими инструментами как монитор Transluce. Но уже данное исследование позволяет выдвинуть некоторые гипотезы относительного того, что же не хватает трансформерам, чтобы приблизиться к интеллекту человеческого уровня не за счет огромного числа примеров, выученных трансформерами на этапе тренировки. Вот эти выводы.
Во-первых, это отсутствие избирательности выбираемых для ответа тем, соответствующих теме вопроса. Это приводит к влиянию нерелеватных групп нейронов и ошибочным ответам.
Во-вторых, трансформерам не хватает общих и доминирующих над контекстом абстракций с обратимыми отношениями как то математические, пространственные и родственные отношения, а также отрицания. Это приводит к проблемам с логическими выводами из известных трансформерам фактов.
В-третьих, построение в парадигме обработки информации и полная зависимость от входа (поверхностной структуры) приводит к возможности неверного ответа при иной постановке вопроса.
Общий вывод: нынешние нейросети, включая трансформеры, не являются еще интеллектом уровня человека, и на сегодня очевидно, что для его достижения необходим поиск новой архитектуры интеллектуальных систем.
Статья https://doi.org/10.17726/philIT.2024.2.6
Литература
1. Kylie Robison, OpenAI cofounder Ilya Sutskever says the way AI is built is about to change // The Verge, Dec 14, 2024, https://www.theverge.com/2024/12/13/24320811/what-ilya-sutskever-sees-openai-model-data-training
2. Найссер У. Познание и реальность. — Москва: "Прогресс", 1981. — С. 42—43. — 230 с. (Neisser W. Cognition and Reality. - Moscow: "Progress", 1981. - P. 42-43. - 230 p.)
3. Melanie Mitchell.How do we know how smart ai systems are? // Science, 381(6654) https://www.science.org/doi/10.1126/science.adj5957
4. Marianna Nezhurina, Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models // https://arxiv.org/html/2406.02061v1#bib.bib12 , 04 Jun 2024
5. Лурия А. Р. Основы нейропсихологии. Учеб. пособие для студ. высших учебных заведений. — М.: Издательский центр «Академия», 2003. — 384 с., с.123-126 (Luria A. R. Fundamentals of Neuropsychology. Textbook for students of higher educational institutions. - M.: Publishing Center "Academy", 2003. - 384 p., pp. 123-126).
6. Lukas Berglund and etc., The Reversal Curse: LLMs trained on "A is B" fail to learn "B is A" // https://arxiv.org/abs/2309.12288 26 May 2024
7. Ben Hagag, Discover What Every Neuron in the Llama Model Does // Towards Data Science, https://towardsdatascience.com/-0927524e4807, Oct 25, 2024
Комментарии (20)
IgnatF
02.08.2025 11:40Что бы заставить модели мыслить как люди, нужно их запрограммировать на такое. Но вот только беда, природа стерла это алгоритм для нас. Да и людей в мире миллиарды и каждый мыслит по своему же.
NeriaLab
02.08.2025 11:40Вы правы, природа не оставила нам готового алгоритма. Но учёные уже реконструируют ключевые принципы человеческого мышления: аналогию, абстракцию, причинность, предиктивное моделирование. И они уже строят системы, которые мыслят не как статистические попугаи, а как дети, учёные, математики. Мы не копируем миллиарды вариантов мышления - мы ищем универсальные когнитивные законы. И, как показывает статья, именно понимание ошибок LLM - путь к новой архитектуре. Будущее ИИ, не в масштабировании данных, а в возвращении к когнитивной науке.
Такие системы сейчас разрабатываются в:
MIT Cognitive Science Lab (Tenenbaum, Saxe);
CIFAR’s Learning in Machines & Brains (Bengio, Friston);
и других
acc0unt
02.08.2025 11:40Очередное спинномозговое "LLM не могут Х". Где Х - это что-то, что LLM на самом деле могут, но слабо.
Мясные мешки, как это часто бывает, занюхивают копиум - и с отчаянием обречённого ищут причины, по которым очередная архитектура ИИ "не является настоящим интеллектом". Имя этого явления - AI effect. Явление известно, задокументировано, и это никак не мешает мясным мешкам совершать одну и ту же ошибку раз за разом.
Мешку с мясом хочется верить в собственную исключительность. Дефект мышления. Дефект неисправим.
NeriaLab
02.08.2025 11:40Статья о "AI effect" в Википедии преувеличивает психологическую составляющую и игнорирует реальные когнитивные различия между имитацией и интеллектом. Она превращает серьёзную научную дискуссию в шутку: "AI - это то, что ещё не сделано". На самом деле, ведущие исследователи ИИ: Гэри Маркус, Йосси Перельман, Джошуа Тененбаум, Дуглас Хофштадтер, Ноам Хомский, Ребекка Сакс и другие - не отрицают прогресс, но настаивают: LLM не являются интеллектом, потому что они не понимают, не рассуждают, не обобщают, не имеют теории ума. Их критика - это не "эффект AI", а научный анализ архитектурных дефектов. И пока мы будем считать, что "если работает - значит умно", мы не придём к настоящему искусственному интеллекту.
Кто из ведущих исследователей ИИ критиковал "AI effect"?
Gary Marcus - статья "AI is stuck. Here's a way forward", 2023
Joshua Tenenbaum - цитата в статье "The Seeds of Artificial General Intelligence", 2023
Douglas Hofstadter - книга "Surfaces and Essences", 2013
Noam Chomsky - статья "The False Promise of ChatGPT", 2023
и т.д.
Эти люди не философы, боящиеся машин, они конкретные учёные, их цитаты и позиции, где они прямо или косвенно отвергают "AI effect" как оправдание слабостей современных ИИ.
Интеллект - это не успешное выполнение задачи, а способность к абстракции, обобщению, рассуждению, пониманию контекста
n0isy
02.08.2025 11:40Ж*па есть, а слова нет: пока моя Тесла лихо идёт на обгон, надиктую Вам сообщение:
Для того, чтобы вас лично заменила ИИ, ей не требуется думать как человек. Она будет думать по-другому. Более успешно в необходимой области (к примеру не станет копипастить сообщение как Вы)
К примеру, леопарду не нужно быть двуногим, чтобы обогнать человека.
И если вы думаете, что агентская система не сможет кардинально улучшить когнитивные функции, взгляните на муравьев, в чью честь даже алгоритмы ИИ называют.
NeriaLab
02.08.2025 11:40Спасибо за яркую аналогию - вы правы: ИИ не обязан копировать человеческое мышление, чтобы быть эффективным. Леопард действительно бегает не как человек, а лучше, за счёт своей биомеханики. Но важно различать специализацию и интеллект. Статья же говорит не о том, что ИИ должен быть "как человек", а о том, что современные LLM страдают от фундаментальных когнитивных дефектов: они не могут рассуждать логически, делают разные выводы из одного и того же вопроса при перефразировке, не понимают обратимых отношений (например, "мать - сын"), и часто "галлюцинируют" (я называю правильно - делают ошибки).
И вот здесь уместна ваша аналогия с муравьями. Да, муравьи поразительный пример коллективного поведения, и вы совершенно правы: существуют алгоритмы ИИ, вдохновлённые ими, например, Ant Colony Optimization (ACO) (https://habr.com/ru/articles/163887/) и Swarm Intelligence (PSO) (https://habr.com/ru/articles/105639/). Это алгоритмы, которые решают задачи вроде поиска кратчайшего пути, имитируя, как муравьи оставляют феромоновые следы. Но важно понимать: у муравья нет мозга, как у человека - у него ганглии, простые нервные узлы. Их "интеллект" - это эмержентное свойство системы, а не признак глубокого понимания. Так и LLM: они могут имитировать интеллект, как муравьиная колония имитирует разум, но без внутренних моделей, абстракций и способности к рассуждению.
Поэтому вопрос не в том, сможет ли ИИ превзойти человека. А в том, превзойдёт ли он его в качестве надёжного, логичного, понимающего собеседника и агента или останется очень умным, но хрупким имитатором? Современные трансформеры эффективны в узких задачах, но их "мышление" легко "ломается" из-за лишнего слова в запросе. Нужна система, которая способная строить внутренние модели мира, как это делает человек.
Так что я с вами согласен: будущее — за системами, которые мыслят иначе.
randomsimplenumber
02.08.2025 11:40Леопард действительно бегает не как человек, а лучше
Что-то мне кажется, что на марафонской дистанции леопард умрет.
kompilainenn2
02.08.2025 11:40Но до этого он успеет сожрать человека и бежать марафон смысла уже не будет
randomsimplenumber
02.08.2025 11:40homo sapiens не зря придумали развлечение - толпой загонять зверя, а потом добить и съесть
Kreastr
02.08.2025 11:40LLM без костылей вообще мало что могут. Архитектура ChatGPT это уже давно не только LLM. Это и интергация со статическими базами фактов и с динамическими источниками вроде поиска в интернете или по локальным документам. Это куча вспомогательных вычислительных средств, которые расширяют очень грустные математические способности LLM. И, вероятно, еще куча разных проприетарных хаков и скрытых инструкций о которых мы не догадываемся.
acc0unt
02.08.2025 11:40На IMO 2025 произошёл казус. OpenAI и Google DeepMind там как раз выкатили системы на "голых" LLM.
Просто толстая стопка LLM, с жирным бюджетом компьюта. Без RAG, без поиска по интернету или локальным базам, без tool calling, без формальных пруверов. Условия, приближенные к человеческим.
Обе смогли закрыть 5/6 задач и получить золото. "Очень грустные математические способности", которые потихоньку приближаются к вершине человеческих.
Kreastr
02.08.2025 11:40"To make the most of the reasoning capabilities of Deep Think, we additionally trained this version of Gemini on novel reinforcement learning techniques that can leverage more multi-step reasoning, problem-solving and theorem-proving data. We also provided Gemini with access to a curated corpus of high-quality solutions to mathematics problems, and added some general hints and tips on how to approach IMO problems to its instructions."
И вручили воооооот такую шпоргалку по решению задач этой олимпиады ну так, на всякий случай.acc0unt
02.08.2025 11:40Как будто участники олимпиады, сделанные из мяса, не тренируются решать математические задачи заранее, и не обладают никакими "general hints and tips on how to approach IMO problems".
Politura
02.08.2025 11:40Исследования в статье уже давным-давно устарели. Сначала научились промптами от них просить думать и решать подобные задачки, потом выпустили LLM с думающим режимом, а теперь современные LLM и без думающего режима решают подобные задачки. А мелкие LLM могут решать гораздо более сложные задачи, потратив на раздумья десяток тысяч слов.
Плюс сами архитектуры меняются: после триумфального появления DeepSeek-R1, все больше и больше MOE моделей, ну и практически все большие современные, кроме самых маленьких, это MOE модели.
Почему люди пишут статьи на темы, в которых не только не разбираются совсем, но и которые им настолько неинтересны, что дико лень запустить какую-то LLM и самому проверить, а является ли правдой то, что ты пишешь?
cmyser
02.08.2025 11:40Автор верно подметил что "интеллект" ллм'ок это лишь эмерджентное свойство системы
Понимания там нет
Вы говорите попробовать, я пробовал работать с ллм в фреймворке который она не знает
Пытался обучить, но ничего не вышло
Фреймворк $mol
Или более простой пример
Спрашиваю у ллм правила игры, конкретный кейс, со ссылками на источники обязательно для подтверждения
Первый раз - ответ да ты прав так можно
Второй - нет ты не прав на самом деле вот так
Третий, уточняю снова с официальными правилами - ну вот теперь то я понял ! (Не понял на самом деле ) - надо делать так то так то
Четвертый - нет я и ты был не прав надо было как в 1 варианте
В каждом ответе были ссылки на источники
NeriaLab
Ведущие когнитивисты, работающих в области ИИ, не упомянутые в Вашей статье, сходятся во мнении:
"Современные LLM - это статистические аппроксиматоры языка, а не модели человеческого разума. Они не обладают абстракцией, аналогией, каузальным мышлением, теорией ума, рефлексией или социальным контекстом - всем тем, что составляет суть человеческого интеллекта."
Выводы учёных:
Gary Marcus (Wiki) - LLM - "стохастические попугаи", не понимают смысла. LLM не обладают символической обработкой, необходимой для настоящего рассуждения
Yoshua Bengio (Wiki) - критикует трансформеры за отсутствие каузального мышления.
Joshua Tenenbaum (Wiki) - разрабатывает Bayesian models of cognition, которые могут делать выводы из 1–2 примеров (one-shot learning)
Leslie Glick and Douglas R. Hofstadter (pdf) - LLM делают поверхностные ассоциации, но не структурные отображения
Rebecca Saxe (Wiki) - LLM не понимают, что другие могут верить во что-то ложное
acc0unt
Буквально весь список - клоунада. Сходу:
Gary Marcus - уже слился. Он как раз выкатил недавно заяву: "Python символьный, значит, LLM с интерпретатором Python это нейросимвольный ИИ - а так как LLM с Python может больше чем LLM без Python, то все мои идеи про нейросимвольный ИИ верны".
Первые кривые прототипы языковых моделей для написания кода в OpenAI и Anthropic делали как бы не в 2020 году, и function calling в 2022 году. Получается, всё это время они работали в правильном направлении.
Yoshua Bengio - приветик из 2015 года. Информация, устаревшая до невозможности.
Causal reasoning в современных LLM есть, и измеряется бенчмарками - ощутимо выше случайного начиная где-то с GPT-3. Производительности передовых LLM уже хватает чтобы порвать нетренированного мясного мешка на тряпочки. О том, чтобы кто-то специально обучал передовые LLM задачам causal reasoning через RLVR, я не слышал - так что потенциал далеко не исчерпан.
Rebecca Saxe - ещё один приветик из 2015 года. Потому что "понимать, что другие могут верить во что-то ложное" - это задача "theory of mind", подкатегория "false belief".
LLM даже во времена GPT-3 показывали производительность на задачах "theory of mind" ощутимо выше случайной, и начиная где-то с GPT-4 на тестах ToM показывают схожие с мясными мешками результаты. В том числе на группе "false belief".
В сумме это прям классический артефакт мясного мышления.
"Если игнорировать все достижения LLM, искать и слушать всех критиков LLM когда они говорят плохие вещи про LLM, и оперировать вхламину устаревшей информацией, то LLM сосут."
NeriaLab
Ваше замечание игнорирует главную мысль статьи Гэри Маркуса и критику архитектуры LLM. Дело не в том, что «LLM + Python = победа нейросимволизма», а в том, что интеграция символических инструментов - это признание фундаментальных ограничений чисто нейросетевых моделей.
Как показано в анализе трансформеров, они систематически проваливаются в задачах, требующих:
логической инверсии («проклятие инверсии»);
устойчивости к переформулировке;
абстрактного рассуждения,
внутреннего представления мира.
Эти ошибки не случайны. Они следуют из архитектуры, построенной на парадигме обработки входного сигнала (перцептрон, Шеннон), которая устарела с точки зрения современной когнитивной науки. В отличие от человека, который конструирует предиктивные модели (Найсер, Фристон, Хоффман), LLM реагируют на поверхностную структуру промта, что делает их уязвимыми к нерелевантным словам и формулировкам.
Маркус не «слился». Он констатирует: ведущие компании: OpenAI, xAI, DeepMind - фактически отказались от чистого масштабирования, внедряя символические компоненты (Python, search, rule-based augmentation). Это не подтверждение силы LLM, а доказательство их когнитивной неполноценности и случайное оправдание нейросимвольного подхода, который он защищает с 1990-х.
Главный тезис: "Нейросети не могут обойтись без явного представления знаний, абстракций и логики."
Это и есть путь к более надёжному, интерпретируемому и когнитивно валидному ИИ.
acc0unt
Каждый раз, когда мясной мешок говорит что-то вроде "LLM, в отличии от человека...", природа делает опровержение в виде ещё более тупого человека.
Не надо переоценивать мясных мешков. Человек слаб и глуп.
Ошибки, которые совершают LLM, до смешного человекоподобны. От задачи про килограмм пуха и до задачи про возраст капитана - рассуждения LLM очень любят ломаться в тех же точках, в которых ломаются люди.
Причина, по которым reasoning-модели на таких задачах резко растут в производительности, в том, что ИИ рассматривает проблему более детально, и замечает подвох. Примерно как люди.
LLM слабы и глупы. Но производительность ИИ быстро растёт. В отличии от производительности среднего мясного мешка.
NeriaLab
"Теория ума" ("Theory of Mind") - это не способность пройти тест на "false belief", а "способность строить устойчивые, обобщаемые модели чужих убеждений", которые могут быть проверены в новых, незнакомых контекстах. LLM показывают высокие результаты в некоторых (!) ToM-задачах. Но это не "понимание", а статистическая интерполяция. Как показано в анализе трансформеров, их ответы меняются при "перефразировке", они не "обобщают" на новые сценарии и не могут модифицировать модель при конфликте с ожиданием, что является сутью когнитивного процесса.
На конференции "CogSci 2024" Сакс представила исследование, сравнивающее детей, взрослых и LLM в задачах на "false belief" с "новыми, нестандартными сюжетами". Она показала: "Где дети 4–5 лет справляются с обобщением с первого раза, там LLM проваливаются, если сценарий не совпадает с обучающими данными."
"If a system can’t apply the principle of false belief to a story it’s never seen, it doesn’t have a theory of mind. It has a database of examples." (Rebecca Saxe, CogSci 2024)
Это не мышление - это "воспроизведение паттернов". У LLM нет "внутренней модели чужого сознания", только статистическая корреляция слов. Они не предсказывают поведение из убеждения, они выбирают наиболее вероятную последовательность. Более того, ToM у человека развивается не из текста, а из "совместного внимания" ("joint attention") и "социального взаимодействия". У LLM этого нет. Они обучаются на "пассивных, деанонимизированных текстах", лишённых контекста и намеренности. То, что GPT-4 "проходит" ToM-тесты - это не доказательство интеллекта, а "артефакт утечки данных" ("data leakage").
Сакс не "приветик из 2015". Она исследователь, которая показывает: "понимание разума требует не данных, а архитектуры, способной к построению и проверке ментальных моделей". Этого у трансформеров нет. И пока они не перестанут быть чёрными ящиками, реагирующими на слова, а не на смысл, они не приблизятся к настоящему социальному интеллекту.
"Интеллект, включая ToM - это не предсказание текста, а построение модели мира и других разумов."