

Мои недавние заметки на эту тему. AGI здесь используется в практическом определении - система способная выполнить 90% задач которые делают офисные сотрудники за компьютером.
Наблюдая за ограничениями современных LLM-агентных систем, я пришел к пониманию, что модели для них должны разрабатываться (и оцениваться) иначе, чем принято сейчас.
Гипотеза: если бы модели обладали способностью к последовательному вызову инструментов, корректно интерпретируя результаты и повторяя цикл до получения качественного ответа, эти системы существенно превзошли бы существующие.
Из этой гипотезы вытекают две основные идеи.
Идея 1: От CoT (Chain of Thought) к CoTC (Chain of Tool Call)
Анализ логов вызовов инструментов часто выявляет иррациональное поведение моделей: они могут загружать информацию, которая уже есть в контексте или совершать другие бессмысленные действия.
Появление "рассуждающих" (CoT) моделей давало надежду, что вызовы станут рациональнее. Однако этого не произошло; мои эксперименты (например, с o3-mini против gpt-4o) показали, что модели не смогли генерализовать свои навыки CoT на процесс вызова инструментов.
Вывод: Модели необходимо целенаправленно дообучать не просто рассуждениям (CoT), а именно цепочкам вызовов инструментов (Chain of Tool Call).
Идея 2: Делегирование фактологии поиску в интернете
Проблема галлюцинаций моделей за последние годы так и не была решена. Однако практический опыт (включение поиска в ChatGPT) показывает, что проблема почти полностью исчезает и взаимодействие с моделью выходит на принципиально иной уровень надежности.
Вывод: Не следует требовать от моделей хранения фактологической информации. Для получения фактов существует проверенный подход: интернет + поисковая система.
Синтез идей: Новый подход
Объединив эти два принципа - можно сформулировать как эти модели должны создаваться. Нам нужна модель (вероятно, традиционной трансформерной архитектуры, и, возможно, даже меньшего размера!), обученная на специфическом датасете:
Минимум фактов: Только базовые знания, необходимые для построения онтологий и понимания мира (условно, школьная программа + основы наук).
Максимум логики: Большое количество примеров решения логических задач, анализа, синтеза и, что самое важное, — примеров использования инструментов для достижения цели.
Такая модель не "знает", она "умеет". Она становится универсальным логическим вычислителем для текста и координатором инструментов.
Возражение: Но язык не является точным выразителем логики
Это так. Но естественный язык позволяет описать некое логическое состояние с достаточной степенью точности. При увеличении объема описания (слов) мы можем сколь угодно точно описать любое состояние — как начальное, так и промежуточное, так и финальное. Более того, ничто не мешает этой модели использовать более формальные языки — код (Python) или языки математической логики.
Возражение: LLM все равно не имеют долгосрочной памяти
Это так. Но на базе описанной выше LLM мы можем построить отдельного агента для управления памятью. Этот агент будет использоваться логическим ядром: сохранять и находить информацию, организовывать и реорганизовывать. Этот агент будет управлять (обрезать / саммаризировать) историей переписки логического ядра с пользователем и т. д. Я знаю несколько проектов, которые сделали подобного агента для памяти уже сейчас (Letta - ранее MemGPT, A-MEM и др). У меня тоже есть ряд идей, как это можно сделать еще эффективнее.
Предлагаемая структура системы
Система, построенная на этом принципе, могла бы выглядеть так:
Логическое Ядро: Главный агент, работающий на описанной выше LLM.
Агент Памяти: Вспомогательный агент, использующий ту же LLM (или похожую — специально обученную для управления памятью) и управляющий накопленными знаниями системы.
Поиск в Интернете: Обязательный инструмент для получения новой информации.
Прочие инструменты: Калькулятор, исполнение кода, и все остальные инструменты для доступа к внешнему миру (MCP).
"Традиционная LLM" как инструмент: Как ни парадоксально, одним из инструментов может стать обычная, "галлюцинирующая" LLM. Мы можем обращаться к ней за фактами, которые трудно найти в Google, но которые она хорошо "обобщила", используя ее как своего рода "интуитивный" или "фаззи-поисковик".
Как создать такую модель?
Архитектура: Обычная LLM на трансформерах. Инновация не в "железе", а в обучающих данных.
Тренировочный сет (Факты): Минимален. Школьный курс, учебные курсы университетских дисциплин, научные работы с высоким индексом цитируемости. Только то, что нужно для построения базовой картины мира. Мультиязычный.
Тренировочный сет (Синтетика): Это — ключевая часть. Нам нужны десятки тысяч примеров логических построений, синтеза выводов из фактов, и особенно — примеры решения многоходовых логических задач с активным вызовом инструментов. Создание этого сета является наиболее сложной задачей.
Дообучение (RL): Применение техник обучения с подкреплением, аналогичных тем, что используются для современных reasoning-моделей, но с обязательным включением вызовов инструментов в процесс обучения.
Бенчмарки: Тестировать нужно не отдельную LLM, а всю систему в сборе (Ядро + Память + Интернет). Только так можно оценить реальный прогресс.
Подтверждение от Andrej Karpathy
Я размышлял на эту тему последние пару месяцев, но не имел ресурсов для ее проверки, так как не занимаюсь обучением LLM-моделей. И вот, несколько дней назад - 17 октября, Andrej Karpathy в подкасте с Dwarkesh Patel фактически озвучил эту идею...

Andrej Karpathy:
"...на самом деле, я думаю, они [модели] запомнили слишком много. ...Я почти уверен, что мы можем получить "когнитивные ядра" (cognitive cores), которые будут очень хороши даже при, скажем, миллиарде параметров. ...Если вы поговорите с моделью в миллиард параметров [через 20 лет], у вас может состояться очень продуктивный разговор. Она думает. ...Но если вы зададите ей какой-то фактический вопрос, ей, возможно, придется его поискать. Но она будет знать, что она не знает, и ей, возможно, придется это поискать, и она просто сделает все разумные для этого вещи."
Он также объяснил, почему текущие модели такие большие:
"...данные для обучения — это интернет, и он ужасен. ...Огромное количество мусора... Я почти уверен, что из-за того, что интернет так ужасен, нам приходится строить действительно большие модели, чтобы все это сжать. ...Большая часть этого сжатия — это работа по запоминанию, а не когнитивная работа. Но то, что нам действительно нужно, — это когнитивная часть, память не нужна."
По результатам этого подкаста он написал масштабный твит, где упомянул свой июньский твит про "cognitive core":
Идет гонка за "когнитивным ядром" LLM — моделью на несколько миллиардов параметров, которая максимально жертвует энциклопедическими знаниями в пользу умений.
Она всегда активна и по умолчанию работает на каждом компьютере как ядро персональных LLM-вычислений.
Ее черты постепенно кристаллизуются:
Нативная мультимодальность (текст/зрение/аудио) как на входе, так и на выходе.
Архитектура в стиле "матрешки", позволяющая регулировать уровень умений (capability) во время работы.
Рассуждение (reasoning), также регулируемое. (система 2)
Агрессивное использование инструментов.
Слоты LoRA для дообучения (finetuning) на устройстве: для обучения в рантайме, персонализации и кастомизации.
Делегирует и перепроверяет ровно то, что нужно, у "оракулов" в облаке, если доступен интернет.
Она не знает, что правление Вильгельма Завоевателя закончилось 9 сентября 1087 года, но смутно узнает имя и может найти дату. Она не может выдать по памяти SHA-256 пустой строки (e3b0c442...), но может быстро его вычислить, если вам это действительно нужно.
... сокращено
Также в этом твите он ссылается на свой майский твит где пишет про реализацию памяти не через параметры модели, а через изменение системного промпта:
Нам не хватает (как минимум одной) важной парадигмы обучения LLM. Не уверен, как это назвать, возможно, у неё есть название — «system prompt learning»?
Предобучение — для знаний. Тонкая настройка (SL/RL) — для поведения.
Оба этих процесса включают изменение параметров, но большая часть человеческого обучения больше похожа на изменение системного промпта.
... сокращено
Эту статью можно рассматривать как развернутое пояснение идей, которые Andrej Karpathy озвучил в своем интервью и развил в X/Twitter. Многие, слушая его интервью, могут пропустить этот ключевой фрагмент, а между тем он критически важен для понимания вектора развития языковых моделей, агентных систем и практического пути к AGI.
Для меня эта история стала еще одним подтверждением фундаментального принципа: когда технология созревает, схожие идеи возникают у разных людей независимо друг от друга, почти одновременно.
Приглашаю к дискуссии в комментариях.
Обо мне
Больше двух лет пишу проекты про интеграцию LLM в приложения: агентский RAG, память для агентов, мультиагентский DeepResearch, голосовое управление приложениями и т. д. Оказываю консультации по интеграции LLM в проекты.
Недавно начал вести телеграм-канал о сильных и слабых сторонах LLM: LLM => AGI?
Комментарии (16)

Ramayasket
23.10.2025 13:12Бурное развитие нейросетей в последние годы, кажется, сформировало представление, что путь от слабого ИИ к сильному будет эволюционным - то есть, за счёт только лишь развития нейросетей мы получим AGI. Однако, этот тезис не доказан ни теоретически, ни практически. А что, если он и вовсе ошибочен?

ovsale Автор
23.10.2025 13:12когда некий подход позволяет решить задачи которые до этого не решались то возникает разумное предположение что этот подход сможет и больше. насколько больше? трудно сказать до проведения нового эксперимента

Hardcoin
23.10.2025 13:12AGI здесь используется в практическом определении - система способная выполнить 90% задач которые делают офисные сотрудники за компьютером.
Очень ошибочный подход. Если из 10 задач агент будет делать одну таким образом, что будет приносить вред, это тоже 90% успеха, но он будет полностью бесполезен.
Необходимо делить на три категории. Смог, не смог, незаметно ошибся. Именно плохо видимые ошибки нужно снижать до нуля. Неверные цифры в отчёте, удаление свежей статьи на сайте, падение AWS, в конце концов.

ovsale Автор
23.10.2025 13:12определение AGI дано лишь для обьяснения моих заметок
по поводу 10 процентов вреда. проверить всегда проще чем сделать. в случае кода - один агент пишет пишет код. другой пишет тесты.
вообще если почитаете мой тг канал то там в основном критика идеи что llm это путь в agi. да и Карпатый в этом интервью говорит что ожидает еще 10 лет до "AGI"
я уже молчу про проблемы с мультимодальностью

Kamil_GR
23.10.2025 13:12Цепочка рассуждения - это неосознанная попытка внедрить нарративный подход к мышлению.
Вообще использование нарративов в LLM интересная тема для статьи.

ovsale Автор
23.10.2025 13:12расскажите подробнее. лучше с примером

Kamil_GR
23.10.2025 13:12Попробую в выходные написать статью.
Модель воспитана на миллионах человеческих текстов, в которых тысячи сюжетов. Само наличие нарративов выучивает модель двигаться по сюжетной линии эмерджентно, без явного обучения... СоТ пытается помочь модели удержать сюжет, вводя промежуточные точки.
...Chain-of-Thought является прямым использованием этого механизма, заставляя модель создавать эксплицитный, пошаговый нарратив своего "мыслительного процесса", что стабилизирует траекторию и снижает вероятность срыва в менее релевантные области латентного пространства. Срыв нарратива, проявляющийся в виде галлюцинаций, часто является следствием конфликта между нарративным давлением и внутренними весами модели....

ovsale Автор
23.10.2025 13:12Chain-of-Thought модель не умеет после претрейна (стадия обучения на текстах). эта способность появляется после RL стадии (https://arxiv.org/pdf/2501.12948). про стадии Андрей отлично рассказывает в этой лекции https://www.youtube.com/watch?v=7xTGNNLPyMI.
так вот не появляются у моделей способности к цепи мыслей после прочтения текстов с нарративами. возможно мало там логических построений которые можно переиспользовать. может еще почему. В том интервью на которое я ссылаюсь в статье Андрей говорит что то на чем учат модели на претрейн стадии - в основном мусор.
сейчас самый многообещающий подход это синтетические (сгенерированные другой моделью) данные.
Kamil_GR
23.10.2025 13:12СоТ вообще возможен только после того как модель пропиталась нарративами.
Это одна из конкретных сюжетных ролей. Но понимание сюжета село вместе с основным обучением

ovsale Автор
23.10.2025 13:12вы можете подтвердить свое утверждение? примером научной работы или экспериментом?
proxy3d
Проблема ни куда не исчезает, она ещё и множится и усугубляется. Возможно для простых вещей, вроде рецепт приготовления супа все нормально, но более сложных - полнейшее фиаско и галлюцинации.
Это отлично видно на математике, где важна точность и логика. Через поиск она находит какую-то работу, берет из нее фрагмент, который косвенно связан. Переформулирует на свое усмотрение и выдает, что "согласно исследованиям/теореме, мы получаем". Смотришь, а там другое, да слова совпадают и даже есть аналогия, но формулы другие, речь о другом. И такое постоянно.
А режим исследования в ChatGPT, вы пробовали смотреть на что он опирается? Там можно посмотреть весь список материалов. Так вот там легко вам может попасться срач на форуме мамочки.ру (условно), где они обсуждали мозги. А ты попросил исследований конкретной темы по неокортексу. Так как модель не может отличить значимость мамочки.ру и сайт с публикацией исследований, особенно когда они рядом в выводе.
Нейронки в текущей архитектуре как были подвержены галлюцинациям, так и будут. Так как проблема не в доступе к информации, не в рассуждениях. Это проблема самой архитектуры, ее ограничений.
ovsale Автор
по моему опыту 90% галлюцинаций исчезает в режиме поиска.
не важно на что он опирается (загружает) важно что оттуда использует
мамочкиру полагаю релевантный источник для ряда задач
Architect_01
Вот тут вы верно подметили - основная проблема - архитектура. У меня есть подозрение, что сами разработчики уже это поняли - но переделывать - это больше бюрократические процессы, чем технические. Уже сейчас можно работать с данными моделями - но при одном условии - что есть надстройка, которая может эффективно работать с ИИ. Надстройка, которая может управлять процессами логики, отсеивать мусор и выдавать полезный, аргументированный ответ.
ovsale Автор
я как раз не критикую трансформенную архитектуру. считаю что для достижения среднесрочных целей достаточно по другому обучать. и не использовать ЛЛМ без инструментов.