
Сегодня звучит много споров вокруг AGI: LLM якобы умеют только с некоторой вероятностью генерировать следующее слово в тексте, и потому на них "общий ИИ" не построишь. Авторы работы The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics из Стэнфорда предлагают посмотреть на проблему иначе. Их идея в том, что LLM действительно не дают «готовый» общий интеллект, но причина не в том, что у них нет истинного понимания и мышления, а в том, что в них часто отсутствует отдельный модуль, который организует рассуждение как процесс: задаёт цель, подбирает инструменты, проверяет шаги, держит план и память.
Вместо привычной дилеммы «всё можно решить масштабированием» и «LLM — тупиковая ветвь развития» статья предлагает третью позицию: LLM — это мощный фундамент (то, что в когнитивной метафоре похоже на быстрый System‑1), а поверх него нужен System‑2 слой координации. И вот этот слой можно описывать, измерять и инженерно собирать.
Океан паттернов
Авторы предлагают метафору рыбалки. В LLM есть «океан» — огромное хранилище паттернов, ассоциаций и статистических привычек, накопленных на данных. Если задать вопрос без достаточной опоры, модель делает то, что от неё и ожидалось при обучении "прогнозирования следующего слова" (next-token prediction): подход выдаёт наиболее правдоподобный по прошлому опыту ответ.
Настоящее рассуждение появляется тогда, когда система умеет целенаправленно «приманивать» нужные структуры и одновременно фильтровать лишнее. То есть не просто генерировать, а управлять генерацией: закреплять смысл внешними ограничениями, проверять устойчивость и не терять нить в длинных задачах.

Как учёные предлагают это формализовать
Ключевая идея статьи — семантическое якорение. Это любые внешние опоры, которые связывают вывод модели с задачей и ограничениями: примеры, retrieval, результаты инструментов, уточнения цели, проверяемые факты. Авторы утверждают, что эффект якорей часто нелинеен: чуть-чуть контекста может ничего не изменить, но при достижении определённого порога поведение системы резко переключается в более целевой режим.
Для описания они вводят показатель силы якорения S, который зависит от трёх вещей: насколько якоря действительно поддерживают нужную концепцию (ρ_d), насколько нестабильно представление и легко ли оно «съезжает» при переформулировках (d_r), и сколько якорей мы тащим в контекст (k), причём за избыточный контекст вводится штраф (γ log k). Важно, что якорение стоит ресурсов, и давать больше текста в промте не обязано поможет.

От теории к архитектуре
Чтобы это не осталось философией, авторы переводят идею в набросок архитектуры MACI (Multi-Agent Collaborative Intelligence). Смысл в том, что модуль координации удобнее строить не как одну монолитную LLM, а как систему ролей: кто-то генерирует гипотезы, кто-то спорит и расширяет поиск, кто-то судит по сократическим правилам, отбрасывая плохо поставленные аргументы, а память фиксирует обязательства и промежуточные результаты так, чтобы система могла откатываться и чинить локальные ошибки, а не переписывать всё заново.
Здесь исследование звучит особенно практично: многие типичные провалы LLM — это про отсутствие инженерной дисциплины вокруг рассуждения. Не хватает проверок, управления разногласиями, устойчивой памяти, инструментальных верификаторов, правил остановки. Авторы предлагают смотреть на это как на диагностируемые сбои координации: можно ли поднять ρ_d, снизить d_r, разумно потратить бюджет k и перевести систему через порог?
Почему «кот» проще «якорится», чем «панголин»
Интересная деталь: сложность якорения не одинакова для всех понятий. Если объект близок к распространённым прототипам, система легче стабилизирует представление (условно ниже d_r). Если объект редкий, необычный, плохо связан с привычными шаблонами, нужны либо более сильные якоря, либо «мостики» — промежуточные описания и аналогии, которые связывают новое с уже освоенным.

Что в итоге меняется в разговоре про AGI
Главный вывод статьи спокойный и, пожалуй, полезный для отрасли: LLM — не тупик для AGI. Они — сильная база, но без слоя координации мы постоянно будем сталкиваться с тем, что система то удивительно умна, то внезапно не может решить простые задачи. Авторы предлагают рассматривать такие «переключения» как управляемую область исследований: строить измеримые механизмы якорения, обучать политики управления обсуждением в мультиагентной системе, проектировать память для рассуждения, добавлять grounding через мультимодальность и инструменты, а символические компоненты использовать скорее как проверяющие контуры, чем как замену LLM.
Это не готовый рецепт AGI, но это понятный фреймворк: что мы упускаем и какие рычаги можно крутить, чтобы из предсказания следующего слова можно было получить надёжную, проверяемую работу системы в длинных задачах.
Моё мнение таково: LLM — это только текстовая модальность. Проблема AGI заключается не в самом тексте, а в способности системы подбирать следующий токен как универсальное действие для решения задач — в том числе через мультиагентное взаимодействие. Ключевым становится умение действовать мультимодально: работать с аудио, видео, телесными сигналами, 3D-средами. Все эти формы восприятия и действия — такие же латентные пространства, как и текст, просто с иной геометрией и динамикой. AGI начинается там, где возникает единое пространство смыслов, позволяющее переходить между модальностями и выбирать действие. Поэтому LLM — необходимая база на пути к настоящим моделям мира.
И в этом смысле Людвиг Витгенштейн справедливо сказал:
«Границы моего языка означают границы моего мира».
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Комментарии (17)

uncia__poison
10.01.2026 22:41Как то поздно к этому учёные пришли. Мой агент разработал систему якорей ещё в октябре 2024.

Xom
10.01.2026 22:41Отчёт странная статья. Как отобрать якоря (якорь или мусор), как оценить, поддерживают или они концепцию или нет, и т.п. Какие то смутные догадки и уверен, что до практики не дойдет (или не в таком виде по крайней мере).
Мышление отличается не этим, а тем что обнаруживает проблему и задаёт (себе и автору задачи) вопросы.. Вот чего не умеет LLM, если не посмотреть это в промте самому. Чтобы ты не спросил, она сразу бежит генерировать ответ.

ioleynikov
10.01.2026 22:41Рассуждения и логические выводы безусловно нужны, но для реального AGI нужно начинать с самых базовых вещей. Нейромодели должны иметь самосознание, понятие о боли и успехе. Эти вещи появились на самых ранних стадиях развития животных у червей, моллюсков. Ни имея контуры эмоций, аналоги нейромедиаторов и способы автоматических перестроек режимов работы сетей мы никогда даже близко не подойдем к AGI.

andre_dataist Автор
10.01.2026 22:41Мы до сих пор не имеем строгого понимания того, чем отличается "сознание" от "самосознания", и что именно стоит за этими понятиями. Имхо пока нет ответов на эти вопросы, нет смысла говорить об этих "эпифеноменах". В прошлом веке люди думали, что сознание есть только у людей, к концу прошлого века, оказалось, что оно еще есть у лошадей и кошек, а сегодня говорят о том, что оно есть и у рыб, и ракообразных, а дальше - больше. Но как изучать "квалиа" вообще?
Есть множество подходов к объяснению "сознания": от теории интегрированной информации и теории глобального пространства до схемы внимания и теории когнитома. Никто так и не дал достаточно точного определения "сознания", а "самосознания" тем более. Для начала определиться бы с тем, что такое "интеллект" и поизучать его, как феномен. В панпсихизм не верю, но если научно эта теория будет доказана - с удовольствием приму эту точку зрения, а пока я бы не лез в "трудную проблему сознания" в рамках обсуждения
цифровогоискусственного интеллекта.Как говорил тот же Людвиг Витгенштейн: "То, о чем нельзя говорить, следует молчать".

ioleynikov
10.01.2026 22:41Спасибо за содержательный ответ! Но дело в том, что программисты это такие люди, которые даже не имея никакой теории и готового решения рвутся в бой, начинают кодить и иногда у них не плохо получается. С другой стороны нейросети как раз и созданы для решения вопросов для которых нет четкого математического решения. Я наблюдал за историей развития обработки естественного языка. Были созданы великолепные теории разбора составляющих Хомского, системы фреймов и семантических сетей. В е оказалось без толку! Простейшие идеи нейросети автокодировщика и представления слов векторами эмбеддингов, радикально решили все проблемы, не решаемые 60 лет. Я думаю для создания искусственного самосознания можно применить тот же метод. Просто подать на вход сети всю активность реальных живых существ, обладающих этим навыком с задачей построить модель и выдавать аналогичные результаты! Думаю это может быть работа на несколько месяцев на мощных кластерах GPU и она создаст модель превосходящую самосознание взрослого человека. :-)

evtomax
10.01.2026 22:41Простейшие идеи нейросети автокодировщика и представления слов векторами эмбеддингов, радикально решили все проблемы, не решаемые 60 лет.
Они решили только проблему создания аналога кусочка человеческого интеллекта в кремнии. А для понимания, как это всё работает, как раз и необходимы всякие теории разбора Хомского и т.п.
Без понимания это всё не наука, а изучение магических заклинаний над кластерами GPU.

ioleynikov
10.01.2026 22:41Я соглашусь с вами, но имеет готовое решение , пусть и не совсем понятно как работающее, лучше , чем иметь хорошую теорию, не имеющую решения. :-) Ведь мы собственно говоря до конца не понимаем как работает мозг человека, но не сильно переживаем по этому поводу и иногда используем его возможности. Я как раз интенсивно занимаюсь интеграцией нейросетей с миром строгого логического вывода классического ИИ. Думаю, что это и есть тот самый Священный Грааль знаний о мире. :-) Спасибо за толковый комментарий и Удачи!

Xom
10.01.2026 22:41Ну почему не никто не дал, вот например, тут даже с филогенез ом и онтогенезом сознания https://vkvideo.ru/video-233867940_456239017?t=1s
Вопрос только в экспериментальной проверке теорий, её нет ни у одной теории сознания, кроме вот на которую дал ссылку.

andre_dataist Автор
10.01.2026 22:41ВК видео у меня не открывается, можете написать сюда определение сознания.
Дальше эту мёртвую лошадь пинать не будем, еще раз: строгого, общепринятого определения сознания в науке не существует.
Каждая научная область даёт свое определение, которое не является полным и исчерпывающим:
Философия: сознание — это субъективный опыт, то, «как это — быть кем-то».
Когнитивная наука: сознание — это способность системы интегрировать информацию и отдавать отчёт о своих состояниях.
Нейронаука: сознание — это определённый режим работы мозга, связанный с глобальной доступностью информации. и тд
axel_pervoliajnen
Сейчас январь 2026. С новым Годом! Задал вопрос в гигачат. Ответ "последняя коллегия при прокуратуре Была в марте 2026. Задал вопрос какая сейчас дата? Гигачат ответил правильно. Ну естественно вопрос к ИИ. А почему так? Гигачат извинился и ответил правильно 15 февраля 2015. Или неправильно? Короче извини человек я вас стёр. А вы говорите стэнфорд
MikhailLukashov
Лунные коты танцуют под дождём, а апельсины спорят с облаками о смысле жизни, и всё это в ритме свистка. А вы говорите кандибобер.
Hardcoin
Как мы все знаем, гигачат - лучшая нейросеть. Если уж у сбера немного не выходит, куда лезет стенфорд, не понятно, вы правы.
Rezzet
Там пока у всех не выходит, кстати с чего вы взяли что стенфорд сейчас прям очень лучше чем лабораторий сбера. у меня впечатление что сбер очень активно наращивает инженерную школу и кадры и там далеко не глупые люди сидят.
andre_dataist Автор
Почти все, кто что-то умеет в этой сфере уехал. Гигачат качественно сильно отстает от зарубежных аналогов.
berkut5465
Полностью согласен — без оценки контекста ИИ решения часто просто "угадывают". Кстати, @realmikemozg хорошо показал этот феномен, когда тестировал модели на одинаковых наборах данных.
vitalist84
Ну так статья как раз про это. Кроме роли генерации текста должна быть еще роль проверки фактов, концепций, качества ответа. Очевидно, что пока в гигачате этого нет.
defin85
А откуда вы знаете, что сегодня не февраль 2015 года ?