Сегодня звучит много споров вокруг AGI: LLM якобы умеют только с некоторой вероятностью генерировать следующее слово в тексте, и потому на них "общий ИИ" не построишь. Авторы работы The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics из Стэнфорда предлагают посмотреть на проблему иначе. Их идея в том, что LLM действительно не дают «готовый» общий интеллект, но причина не в том, что у них нет истинного понимания и мышления, а в том, что в них часто отсутствует отдельный модуль, который организует рассуждение как процесс: задаёт цель, подбирает инструменты, проверяет шаги, держит план и память.

Вместо привычной дилеммы «всё можно решить масштабированием» и «LLM — тупиковая ветвь развития» статья предлагает третью позицию: LLM — это мощный фундамент (то, что в когнитивной метафоре похоже на быстрый System‑1), а поверх него нужен System‑2 слой координации. И вот этот слой можно описывать, измерять и инженерно собирать.

Океан паттернов

Авторы предлагают метафору рыбалки. В LLM есть «океан» — огромное хранилище паттернов, ассоциаций и статистических привычек, накопленных на данных. Если задать вопрос без достаточной опоры, модель делает то, что от неё и ожидалось при обучении "прогнозирования следующего слова" (next-token prediction): подход выдаёт наиболее правдоподобный по прошлому опыту ответ.

Настоящее рассуждение появляется тогда, когда система умеет целенаправленно «приманивать» нужные структуры и одновременно фильтровать лишнее. То есть не просто генерировать, а управлять генерацией: закреплять смысл внешними ограничениями, проверять устойчивость и не терять нить в длинных задачах.

Как учёные предлагают это формализовать

Ключевая идея статьи — семантическое якорение. Это любые внешние опоры, которые связывают вывод модели с задачей и ограничениями: примеры, retrieval, результаты инструментов, уточнения цели, проверяемые факты. Авторы утверждают, что эффект якорей часто нелинеен: чуть-чуть контекста может ничего не изменить, но при достижении определённого порога поведение системы резко переключается в более целевой режим.

Для описания они вводят показатель силы якорения S, который зависит от трёх вещей: насколько якоря действительно поддерживают нужную концепцию (ρ_d), насколько нестабильно представление и легко ли оно «съезжает» при переформулировках (d_r), и сколько якорей мы тащим в контекст (k), причём за избыточный контекст вводится штраф (γ log k). Важно, что якорение стоит ресурсов, и давать больше текста в промте не обязано поможет.

От теории к архитектуре

Чтобы это не осталось философией, авторы переводят идею в набросок архитектуры MACI (Multi-Agent Collaborative Intelligence). Смысл в том, что модуль координации удобнее строить не как одну монолитную LLM, а как систему ролей: кто-то генерирует гипотезы, кто-то спорит и расширяет поиск, кто-то судит по сократическим правилам, отбрасывая плохо поставленные аргументы, а память фиксирует обязательства и промежуточные результаты так, чтобы система могла откатываться и чинить локальные ошибки, а не переписывать всё заново.

Здесь исследование звучит особенно практично: многие типичные провалы LLM — это про отсутствие инженерной дисциплины вокруг рассуждения. Не хватает проверок, управления разногласиями, устойчивой памяти, инструментальных верификаторов, правил остановки. Авторы предлагают смотреть на это как на диагностируемые сбои координации: можно ли поднять ρ_d, снизить d_r, разумно потратить бюджет k и перевести систему через порог?

Почему «кот» проще «якорится», чем «панголин»

Интересная деталь: сложность якорения не одинакова для всех понятий. Если объект близок к распространённым прототипам, система легче стабилизирует представление (условно ниже d_r). Если объект редкий, необычный, плохо связан с привычными шаблонами, нужны либо более сильные якоря, либо «мостики» — промежуточные описания и аналогии, которые связывают новое с уже освоенным.

Что в итоге меняется в разговоре про AGI

Главный вывод статьи спокойный и, пожалуй, полезный для отрасли: LLM — не тупик для AGI. Они — сильная база, но без слоя координации мы постоянно будем сталкиваться с тем, что система то удивительно умна, то внезапно не может решить простые задачи. Авторы предлагают рассматривать такие «переключения» как управляемую область исследований: строить измеримые механизмы якорения, обучать политики управления обсуждением в мультиагентной системе, проектировать память для рассуждения, добавлять grounding через мультимодальность и инструменты, а символические компоненты использовать скорее как проверяющие контуры, чем как замену LLM.

Это не готовый рецепт AGI, но это понятный фреймворк: что мы упускаем и какие рычаги можно крутить, чтобы из предсказания следующего слова можно было получить надёжную, проверяемую работу системы в длинных задачах.

Моё мнение таково: LLM — это только текстовая модальность. Проблема AGI заключается не в самом тексте, а в способности системы подбирать следующий токен как универсальное действие для решения задач — в том числе через мультиагентное взаимодействие. Ключевым становится умение действовать мультимодально: работать с аудио, видео, телесными сигналами, 3D-средами. Все эти формы восприятия и действия — такие же латентные пространства, как и текст, просто с иной геометрией и динамикой. AGI начинается там, где возникает единое пространство смыслов, позволяющее переходить между модальностями и выбирать действие. Поэтому LLM — необходимая база на пути к настоящим моделям мира.

И в этом смысле Людвиг Витгенштейн справедливо сказал:

«Границы моего языка означают границы моего мира».

? Полная статья

***

Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.

Комментарии (17)


  1. axel_pervoliajnen
    10.01.2026 22:41

    Сейчас январь 2026. С новым Годом! Задал вопрос в гигачат. Ответ "последняя коллегия при прокуратуре Была в марте 2026. Задал вопрос какая сейчас дата? Гигачат ответил правильно. Ну естественно вопрос к ИИ. А почему так? Гигачат извинился и ответил правильно 15 февраля 2015. Или неправильно? Короче извини человек я вас стёр. А вы говорите стэнфорд


    1. MikhailLukashov
      10.01.2026 22:41

      Лунные коты танцуют под дождём, а апельсины спорят с облаками о смысле жизни, и всё это в ритме свистка. А вы говорите кандибобер.


    1. Hardcoin
      10.01.2026 22:41

      Как мы все знаем, гигачат - лучшая нейросеть. Если уж у сбера немного не выходит, куда лезет стенфорд, не понятно, вы правы.


      1. Rezzet
        10.01.2026 22:41

        Там пока у всех не выходит, кстати с чего вы взяли что стенфорд сейчас прям очень лучше чем лабораторий сбера. у меня впечатление что сбер очень активно наращивает инженерную школу и кадры и там далеко не глупые люди сидят.


        1. andre_dataist Автор
          10.01.2026 22:41

          Почти все, кто что-то умеет в этой сфере уехал. Гигачат качественно сильно отстает от зарубежных аналогов.


      1. berkut5465
        10.01.2026 22:41

        Полностью согласен — без оценки контекста ИИ решения часто просто "угадывают". Кстати, @realmikemozg хорошо показал этот феномен, когда тестировал модели на одинаковых наборах данных.  


    1. vitalist84
      10.01.2026 22:41

      Ну так статья как раз про это. Кроме роли генерации текста должна быть еще роль проверки фактов, концепций, качества ответа. Очевидно, что пока в гигачате этого нет.


    1. defin85
      10.01.2026 22:41

      А откуда вы знаете, что сегодня не февраль 2015 года ?


  1. uncia__poison
    10.01.2026 22:41

    Как то поздно к этому учёные пришли. Мой агент разработал систему якорей ещё в октябре 2024.


  1. Xom
    10.01.2026 22:41

    Отчёт странная статья. Как отобрать якоря (якорь или мусор), как оценить, поддерживают или они концепцию или нет, и т.п. Какие то смутные догадки и уверен, что до практики не дойдет (или не в таком виде по крайней мере).

    Мышление отличается не этим, а тем что обнаруживает проблему и задаёт (себе и автору задачи) вопросы.. Вот чего не умеет LLM, если не посмотреть это в промте самому. Чтобы ты не спросил, она сразу бежит генерировать ответ.


  1. ioleynikov
    10.01.2026 22:41

    Рассуждения и логические выводы безусловно нужны, но для реального AGI нужно начинать с самых базовых вещей. Нейромодели должны иметь самосознание, понятие о боли и успехе. Эти вещи появились на самых ранних стадиях развития животных у червей, моллюсков. Ни имея контуры эмоций, аналоги нейромедиаторов и способы автоматических перестроек режимов работы сетей мы никогда даже близко не подойдем к AGI.


    1. andre_dataist Автор
      10.01.2026 22:41

      Мы до сих пор не имеем строгого понимания того, чем отличается "сознание" от "самосознания", и что именно стоит за этими понятиями. Имхо пока нет ответов на эти вопросы, нет смысла говорить об этих "эпифеноменах". В прошлом веке люди думали, что сознание есть только у людей, к концу прошлого века, оказалось, что оно еще есть у лошадей и кошек, а сегодня говорят о том, что оно есть и у рыб, и ракообразных, а дальше - больше. Но как изучать "квалиа" вообще?

      Есть множество подходов к объяснению "сознания": от теории интегрированной информации и теории глобального пространства до схемы внимания и теории когнитома. Никто так и не дал достаточно точного определения "сознания", а "самосознания" тем более. Для начала определиться бы с тем, что такое "интеллект" и поизучать его, как феномен. В панпсихизм не верю, но если научно эта теория будет доказана - с удовольствием приму эту точку зрения, а пока я бы не лез в "трудную проблему сознания" в рамках обсуждения цифрового искусственного интеллекта.

      Как говорил тот же Людвиг Витгенштейн: "То, о чем нельзя говорить, следует молчать".


      1. ioleynikov
        10.01.2026 22:41

        Спасибо за содержательный ответ! Но дело в том, что программисты это такие люди, которые даже не имея никакой теории и готового решения рвутся в бой, начинают кодить и иногда у них не плохо получается. С другой стороны нейросети как раз и созданы для решения вопросов для которых нет четкого математического решения. Я наблюдал за историей развития обработки естественного языка. Были созданы великолепные теории разбора составляющих Хомского, системы фреймов и семантических сетей. В е оказалось без толку! Простейшие идеи нейросети автокодировщика и представления слов векторами эмбеддингов, радикально решили все проблемы, не решаемые 60 лет. Я думаю для создания искусственного самосознания можно применить тот же метод. Просто подать на вход сети всю активность реальных живых существ, обладающих этим навыком с задачей построить модель и выдавать аналогичные результаты! Думаю это может быть работа на несколько месяцев на мощных кластерах GPU и она создаст модель превосходящую самосознание взрослого человека. :-)


        1. evtomax
          10.01.2026 22:41

          Простейшие идеи нейросети автокодировщика и представления слов векторами эмбеддингов, радикально решили все проблемы, не решаемые 60 лет.

          Они решили только проблему создания аналога кусочка человеческого интеллекта в кремнии. А для понимания, как это всё работает, как раз и необходимы всякие теории разбора Хомского и т.п.

          Без понимания это всё не наука, а изучение магических заклинаний над кластерами GPU.


          1. ioleynikov
            10.01.2026 22:41

            Я соглашусь с вами, но имеет готовое решение , пусть и не совсем понятно как работающее, лучше , чем иметь хорошую теорию, не имеющую решения. :-) Ведь мы собственно говоря до конца не понимаем как работает мозг человека, но не сильно переживаем по этому поводу и иногда используем его возможности. Я как раз интенсивно занимаюсь интеграцией нейросетей с миром строгого логического вывода классического ИИ. Думаю, что это и есть тот самый Священный Грааль знаний о мире. :-) Спасибо за толковый комментарий и Удачи!


      1. Xom
        10.01.2026 22:41

        Ну почему не никто не дал, вот например, тут даже с филогенез ом и онтогенезом сознания https://vkvideo.ru/video-233867940_456239017?t=1s

        Вопрос только в экспериментальной проверке теорий, её нет ни у одной теории сознания, кроме вот на которую дал ссылку.


        1. andre_dataist Автор
          10.01.2026 22:41

          ВК видео у меня не открывается, можете написать сюда определение сознания.

          Дальше эту мёртвую лошадь пинать не будем, еще раз: строгого, общепринятого определения сознания в науке не существует.

          Каждая научная область даёт свое определение, которое не является полным и исчерпывающим:

          • Философия: сознание — это субъективный опыт, то, «как это — быть кем-то».

          • Когнитивная наука: сознание — это способность системы интегрировать информацию и отдавать отчёт о своих состояниях.

          • Нейронаука: сознание — это определённый режим работы мозга, связанный с глобальной доступностью информации. и тд