Эта статья логическое продолжение моей статьи про AGI. И сегодня я хочу рассказать, почему AGI, про который нам рассказывают, невозможен и что мы можем предложить вместо этого.

Напомню, что AGI - общий искусственный интеллект, который способен на самостоятельное обучение и решение задач, под которые не был заточен. Полная автономия и самостоятельность.

AGI это следующий этап развития ИИ. Подобная модель сможет самостоятельно изучать и решать задачи, совершать новые научные открытия, и в принципе это таблетка от всех проблем. По крайней мере, так считают современные техногиганты, в особенности Илон Маск или Сэм Альтман, которые яро пропагандируют идеи AGI и вот-вот обещают выпустить подобную модель. Но, к сожалению или к счастью, это невозможно, и вот почему.

Создать AGI невозможно?

Если понимать AGI как абсолютного решателя любых задач — да, это невозможно математически.

В мае 2025 года вышло научное доказательство одного профессора прикладных наук Макса Шлерета. В своей статье он выдвинул фундаментальный аргумент против возможности создания AGI. Речь идет о барьере бесконечного выбора.

Суть заключается в том, что существуют задачи, количество решений которых достигает бесконечности. А бесконечный выбор приводит к бесконечным вычислительным ресурсам. Это и делает AGI невозможным. А также невозможность AGI подтверждается эмпирическими данными, такими как исследования Apple, DeepMind, OpenAI и Anthropic.

AGI, способный к автономному творчеству и решению абсолютно любых задач, сталкивается с ситуациями, где пространство возможных решений или интерпретаций стремится к бесконечности. Простыми словами, модель прекрасно решает задачи в рамках своей предметной области, но абсолютно не способна к трансцендентности, к познанию через чувствительный опыт.

Один из ключевых барьеров для AGI – неспособность к трансценденции фрейма, то есть к выходу за пределы заданной модели. Яркий пример – переход от ньютоновской механики к теории относительности. Когда эксперименты выявили расхождения с классическими предсказаниями, решение нашлось не в рамках старой теории, а через введение принципиально нового понятия – инвариантности скорости света. Алгоритм же не может самостоятельно обнаружить ограниченность своей модели: для него аномалии выглядят либо как шум, либо как ошибки данных. Он не способен создать новый семантический примитив, меняющий сами правила игры.

Для гарантированного нахождения оптимального решения в бесконечном пространстве потребуются бесконечные вычислительные ресурсы и время. Следовательно, AGI физически невозможен математически и логически.

А должен ли интеллект быть абсолютным оптимизатором? Человек, например, работает иначе. Мы не перебираем все варианты – мы используем эвристики, опыт и контекст.

Давайте проведем аналогию с нашим мозгом:

  1. Мы сразу отсекаем бессмысленные варианты, даже не рассматривая их

  2. Ориентируемся на прошлый опыт и действуем по аналогии

  3. Принимаем благоразумные решения, а не ищем математически оптимальные

  4. Опираемся на сенсорный опыт и интуицию

Мы не решаем абстрактные задачи в статическом вакууме, где все факторы известны заранее и ничего не меняется. Мы решаем задачи в динамической реальности, где условия могут поменяться в любую секунду – и наше решение должно это учитывать.

И поэтому аргумент Шлерета не приговор, а лишь ограничения, которые наложили на разработку.

Вычислительная проблема

Некоторые ученные, например, Сундар Пичаи, гендеректор Google, считает, что AGI будет крайне сложно создать на современном железе.

Здесь оценка строится от идеи масштабирования, а рост параметров LLM имеет экспоненциальную стоимость. Например, Llama 3.1 405B обучалась на 810 ГБ VRAM и энергозатратами, сравнимыми с годовым потреблением небольшого города. А мы говорим о триллионах параметров? О десятках триллионов?

Это тупиковый путь не только логически, но и экономически. Масштабирование LLM – это гонка за убывающей отдачей, где каждый следующий процент интеллектуальности будет стоить в геометрической прогрессии дороже, не приближая нас к настоящему пониманию. У этого подхода имеется физический и финансовый потолок.

Экономическая проблема

Резкий рост требований к железу и энергии напрямую ведёт к гипернакачке инвестициями. Прогнозы рисуют футуристические картины: объём рынка ИИ к 2030 году достигнет $4,8 трлн, а технологии затронут 40% рабочих мест.

История повторяется, из ИИ раздули такой же пузырь, как в свое время из доткомов. Но проблема не в количестве денег, а в том, куда они идут. Интернет переоценили в моменте и не оценили его в долгосроке. Сейчас жизнь без интернета буквально невозможна.

Если пузырь лопнет, то инвестиции в ИИ просто исчезнут. Деньги уйдут, стартапы закроются, исследования свернут. Но в долгосрочной перспективе это может оказаться огромным плюсом. Закончится гонка параметров, которая сейчас пожирает все ресурсы. Те, кто останутся на поле, это либо нишевые игроки с реальными продуктами, либо исследователи, которым не нужно гнаться за GPT-7 и собирать кластеры на миллион и одну видеокарту.

Именно тогда появится пространство для экспериментов с новыми архитектурами. Не потому, что деньги волшебным образом перетекут в правильные проекты, а потому что кончится безумие, когда деньги получает тот, у кого больше параметров.

Главная задача, не выплеснуть ребенка вместе с водой. Если пузырь лопнет слишком сильно, вместе с деньгами на масштабирование умрет и финансирование фундаментальных исследований. А без них исследования умрут.

Привет человек

Считаю, что с AGI история повторится. Сейчас идет постоянный рост LLM-моделей. И когда они будут уже не на 660 млрд параметров, а на триллион и больше, их просто назовут AGI. Никакого качественного скачка не произойдет – просто очередной ребрендинг, как это уже было с «экспертными системами» вместо ИИ или «машинным обучением» вместо нейросетей.

Но понимания у таких моделей не появится. Это будет очень умный и очень дорогой попугай. Просто теперь он будет говорить так убедительно, что люди примут его за разумного.

И здесь мы упираемся в другой вопрос – даже если мы назовем это AGI, сможет ли такой инструмент решать задачи, требующие человеческого участия?

Есть один социальный аспект, а точнее – вопрос о человечности как таковой. AGI (или то, что им назовут) – это не таблетка от всех проблем, а мощный инструмент. Но сможет ли этот инструмент давать благоразумные решения без эмпатии? Должна ли быть у него эмпатия?

В 1966 году в Великобритании появилась Элиза, чат-бот, который имитировал работу психотерапевта. Она работала по простейшему принципу: сопоставление образцов и подстановка готовых фраз. На любой запрос пользователя у нее был шаблонный ответ. И люди верили ей. Они раскрывались, плакали, благодарили психотерапевта, который просто перефразировал их же слова.

И здесь мы попали в красивый тупик:

  • Если AGI не нужна человечность, то мы теряем суть. Он не сможет решать все задачи. Он не справится с задачами, где нужны эмоции, эмпатия или понимание человеческой природы. Психология, воспитание, дипломатия, управление людьми (менеджмент), всё это не наш случай. А значит, это не AGI, а просто очень умный, но бесполезный в человеческих делах калькулятор.

  • Если мы наделяем AGI человечностью, то это уже не инструмент, а субъект. А субъекты имеют собственные интересы. И нет никаких гарантий, что наши интересы совпадут.

Раскрытие проблемы нужно искать где-то в середине, в философии. Сначала нужно понять в принципе, что такое интеллект.

А что теперь? Что там с архитектурой?

Давайте сразу обозначим, я хочу создать понимающую модель, а не AGI. Модель, которая понимает, что она делает, и далее просто развивать функционал и наращивать.

Дисклеймер

Дальше идет мой поток мыслей и просто идеи, как можно поступить и что собираюсь делать я. Если вы со мной не согласны, у вас есть идеи и т. д., добро пожаловать в комментарии, очень жду.

Здесь можно поступить следующим образом, берем модульную архитектуру для масштабирования функционала. Эта идея идет прямиком из первой моей статье по разработке проекта. Дальше разберем нашу проблему, а точнее понимание.

Понимание - это процесс осмысления чего-либо. Когда мы слышим слово «яблоко», мы понимаем, о чём идёт речь, ибо видели яблоко, трогали яблоко, пробовали яблоко и т. д.

Проблема в том, что модель не понимает. Всё, что она знает, что вот этот двоичный код это то же самое, что яблоко, и то, что этот код встречается вот в этом и в этом контексте. На этом всё понимание. То есть просто текста мало, нужны другие данные: звук, картинка и динамика времени.

Современные LLM это очень дорогой и умный попугай, они подбирают текст. Анализируют большие объемы данных и просто сопоставляют самые популярные варианты. Так и работают трансформеры, мы же пойдем в обход и постараемся дать модели сенсорный опыт.

Как? С помощью обучения на видео. Об этой идее я услышал в интервью Ян ЛеКуна. Оказывается, что многие компании так и делают (DeepMind, OpenAI, FAIR).

Долго, дорого и сложно, зато мы закрываем потребность в звуке, картинке и в тексте. То есть, если показать модели видео с яблоками, то она будет понимать за счет анализа как такового, что такое яблоко. Ребенок не учится по учебникам, а наблюдает за миром. То есть мы создаем конкретную связь между текстом, картинкой, звуком и временной динамикой. А модель уже сама строит нейронные связи прямо как человек.

Это способствует построению модели мира (World Models), а данная архитектура сейчас является ключевой. Что это?

Модель мира – это архитектурный подход, когда модель симулирует вокруг себя окружающий мир.

То есть мы можем реализовать условную текстовую симуляцию, например, как режим мышления в ChatGPT, в реальном времени, за счет чего модель сможет понимать.

Так же есть три основных подхода к реализации AGI:

  1. Когнитвный – Воспроизведение высокоуровневых мыслительных процессов человека путем комбинации различных парадигм ИИ

  2. Нейроморфный - Прямое моделирование человеческого мозга в надежде, что интеллект возникнет из его структуры

  3. Химический – Создание самоорганизующихся систем на низком уровне (наподобие химических реакций), чтобы интеллект возник естественным путем

Скажу прямо, реализовать что-то подобное в домашних условиях или одному невозможно, поэтому нам это не подходит. Я думаю, про гибридный подход реализации через разные инструменты, например, как я писал в прошлых статьях, сделать память через бд самый простой и эффективный подход.

Мой гибридный подход это попытка взять лучшее из когнитивного (высокоуровневые модули) и нейроморфного (обучение на опыте).

Заключение

Мой подход оказался основополагающим в научном сообществе, и я ничего нового абсолютно не предлагаю, все было сказано до меня, я лишь обозначил, что и как конкретно хочу использовать.

Эта статья по большей степени написана для того, чтобы разобраться в основных понятиях и понять, что делать и как делать, теперь задача попробовать сделать это дома и за копейки.

Заходите к нам в тг канал, там уже есть рабочий прототип.

Комментарии (18)


  1. ReadIt-Club
    16.02.2026 07:58

    Если согласиться с Вашими умозаключениями то можно прийти к выводу, что человеческое сознание, мышление невозможно… имхо, если что-то во вселенной было случайно создано из атомов и молекул в ходе беспорядочной эволюции, то это может быть воспроизведено и не случайным способом…


    1. Fech Автор
      16.02.2026 07:58

      Почему же? Я говорю о том, что современный подход к масштабированию ллм не путь к пониманию так таковому


    1. Haskell_vr
      16.02.2026 07:58

      Так никто толком не знает что такое человеческое сознание. Может оно и невозможно из материальных "кубиков".


  1. Kamil_GR
    16.02.2026 07:58

    Ну по факту это не подход, это надежда. Определение понимания через смысл - масло масляное. Через видеообучение вы придете к привязке связей к физическим законам, но не более. Смысл как таковой, это галлюцинация пространства, отсеченного границами отрицания.


    1. Fech Автор
      16.02.2026 07:58

      Я согласен с тем, что через видео не получится достигнуть полного понимания, ибо не хватает чувствительности, нужна осезаемость, но закрыть всё остальные потребности мы можем, почему нет?


  1. saag
    16.02.2026 07:58

    решение нашлось не в рамках старой теории, а через введение принципиально нового понятия – инвариантности скорости света

    Такое впечатление, что стоят эти самые ученые перед металлической стеной большого пульта управления выкрашенного серой шаровой краской с множеством крумбелей, которые регулируют различные параметры и закотелось им перещелкнуть крумбель с надписью "Скорость света", не получается, блокировка стоит, а давайте снимем блокировку - сказали ученые - и посмотрим что получится, блокировку сняли и перещелк.....


  1. axion-1
    16.02.2026 07:58

    Современные LLM это очень дорогой и умный попугай, они подбирают текст. Анализируют большие объемы данных и просто сопоставляют самые популярные варианты. Так и работают трансформеры, мы же пойдем в обход и постараемся дать модели сенсорный опыт.

    Как? С помощью обучения на видео.

    Вы критикуете архитектуру LLM, но в качестве решения почему-то предлагаете не менять её, а добавлять дополнительные домены данных. С видео или без, если под капотом будут работать те же самые трансформеры, архитектурные ограничения никуда не денутся.


    1. Fech Автор
      16.02.2026 07:58

      Как раз наоборот, я там пишу о том, что вместо трансформеров хочу использовать другую логику, и выбрал симуляцию


  1. YMA
    16.02.2026 07:58

    Современные LLM это очень дорогой и умный попугай, они подбирают текст. 

    Так и человеческий мозг делает то же самое. IMHO современные LLM представляют собой человеческую память, обученную на огромном объеме данных, но отделенную от всего остального, что есть у нас в мозге.

    Хотите почувствовать себя LLM?

    Какое слово вам приходит следующим в сознание: почтовый... ящик?

    Угадал? А если вам скажут - задумайте инструмент... Задумали? А теперь задумайте цвет...

    Итого вы задумали молоток, и конечно же красный ?

    И последний тест - мужчины скорее всего попадутся. Продолжите - "Он принес ящик... водки?" ;)

    Но в человеческом мозге есть и другие функциональные системы, кроме памяти. Они как раз и отличают нас от LLM. Сознание, внутренний диалог, интуиция (подсознание)...


    1. Username9000
      16.02.2026 07:58

      Моё IMHO, вдохновленное прочтением вашего комментария.
      Нам стоит научиться думать про LLM так, будто это "внешняя кора" головного мозга... Или внешняя память если угодно, я просто подбираю аналогию. Это может быть как умный тезаурус для программиста так и адаптационный инструмент для людей перенесших инсульт.
      В общем у меня есть неказистое, но по моему достаточно ёмко определение - "когнитивный костыль".
      Просто именно в этом я вижу силу и будущее текущей итерации генеративный алгоритмов. С их помощью мы сократим разрыв между домохозяйкой и ускорителем элементарных частиц, скажу я для красного словца. Извините за поток сознания. Но вы сами виноваты :3


    1. Fech Автор
      16.02.2026 07:58

      Дело в отсутствие понимания, мы не предугадываем следующие слово, как это делает ллм

      Наше понимание строиться через органы чувств, мы знаем что это почтовый ящик, ибо видели, слышали и трогали его, чтобы создать пониманиющую модель нужно добиться того же, а обучение на видео закрывает половину потребностей


      1. Deerenaros
        16.02.2026 07:58

        В россии растёт (или выросло) огромное (отличное от нуля) количество людей, которые ни разу не видели почтовый ящик, не говоря уже о том, чтобы потрогать его. Почта почти мертва, а доступ к фильмам и интернету имеют не все.

        В мире есть множество абстракций, которые просто нереально увидеть, та же математика может быть или авизуальной, или в принципе не иметь геометрических аналогий (по крайне менее, прямых). Например, теория чисел - геометрией там едва ли пахнет. Но это не мешает составлять криптографические алгоритмы.

        Любой, кто имеет достаточно красные глаза, чтобы комфортно пользоваться текстовым терминалом, скажет, что текст - это универсальный инструмент. Любой цивилизации предшествует письменность - исключительный способ передавать почти любую информацию. Наш естественный язык преследует единственную цель - дать возможность передавать любую информацию, в том числе взаимоисключающие параграфы: что будет, если всеразрушающий шар столкнётся со всеостанавливающей стеной? Или может ли всемогущий бог создать камень, который он не сможет создать? Задайте эти вопросы LLM и (возможно) вы немного удивитесь.

        Именно тогда появится пространство для экспериментов с новыми архитектурами. Не потому, что деньги волшебным образом перетекут в правильные проекты, а потому что кончится безумие, когда деньги получает тот, у кого больше параметров.

        Это логическое безумие. Также DeepSeek, которые взорвали рынок тем, что сделали всё в разы дешевле применим секретные ниндзюцу. Проблема сверхзатрат и кризиса AI в том, что очень легко себе представить, как он заменяет собой целые пласты рабочих профессий, замену которых ещё 10 лет назад было едва ли возможно представить.

        Вообще, главная проблема топика в том, что автор глубоко не понимает ни реальные принципы работы LLM, ни настоящий смысл AGI. Суть не в том, что AGI не, то, невозможен, не сё. Суть в том, что AGI нафиг не нужен. По крайне менее - в ближайшие лет 10. Потому что он будет дорогим, медленным и у нас есть свой AGI на плечах. Даже если представить, что компьютерный интеллект будет чуточку умнее, его убьёт высочайшая стоимость.

        Зато необходимо дальнейшее развитие LLM. Со временем они должны кластеризоваться на предметные области, они радикально изменят ландшафт рабочих профессий, в перспективе десятка-двух лет грядут нереальные изменения в областях юриспрюденции и медицины, где применение нейронок уже дают существенный импакт, но регуляторные практики замедляют его тотальное внедрение. Но (не) очень скоро в "бесплатную" страховку (в той же США) будут включены почти исключительно сервисы на базе LLM (выглядит как сценарий для "Чёрного Зеркала").

        Злая ирония в том, что AGI будет (на сейчас) слишком тяжёлым. Да, должен (будет) как бы уметь всё, но это абсолютно также, как и с людьми - уметь всё он будет "по чуть-чуть". Однако в последствии, когда рынок немного подустаканется, следующие исследования будут в направлении унификации, синергии и объединения LLM различных областей, и вот здесь вангую рождение AGI. И самая большая проблема с оным в том, что конкуренция с ним априори бесмысленная. Тут или путь синергии или отчуждения.

        Считаю, что с AGI история повторится. Сейчас идет постоянный рост LLM-моделей. И когда они будут уже не на 660 млрд параметров, а на триллион и больше, их просто назовут AGI. Никакого качественного скачка не произойдет – просто очередной ребрендинг, как это уже было с «экспертными системами» вместо ИИ или «машинным обучением» вместо нейросетей.

        А у вас перемешаны понятия, которые вы плохо понимаете. Триллион параметров есть УЖЕ. Никто не делал ребрендинга машинного обучения и нейросетей. Второе входит в первое, наравне с какими-нибудь методами отжига или k-средних. Нейросети всё вытеснило и теперь это (почти!) синонимы.

        Проблема в том, что модель не понимает. Всё, что она знает, что вот этот двоичный код это то же самое, что яблоко, и то, что этот код встречается вот в этом и в этом контексте. На этом всё понимание. То есть просто текста мало, нужны другие данные: звук, картинка и динамика времени.

        А английский язык это 7-битный код. И что? Можно сказать, что русский - это 35-ричный код. Всё есть код. В этом суть кодирования - переписать информацию из одного вида в другой. У нас в голове есть своё кодирование, но очень сложное и "эврестическое". Банально за счёт упрощения (неважных) элементов LLM могут быть в разы эффективнее. Правда, тут вопрос - что есть неважное, но это совсем другая история.

        Вам бы советовал сначала почитать умных книжек, потому что сейчас выглядит как "слышу звон, да не знаю где он". Гиперболическая метафора, что LLM "угадывают" следующее слово - это гипербола и метафора. Ну блин, но конечно это вообще не так, ну это ж бред какой-то. LLM строит предсказания в N-мерном (смысловом!) пространстве, которые можно контролировать различными параметрами (например, делать штрафы повторениям или настраивать температуру). Трансформеры - это метод построения нейросетей, дающий колосальные приемущества в обучении и работе. Но это не они так работают, а любые LLM. При этом именно self-attention даёт возможность на порядки меньше галюцинировать и лучше "понимать" смысл, таким образом улучшая "подбор" следующих слов (токенов). Очень важно здесь обращать внимание на кавычки. Если использовать более конкретный и прямой смысл, то вместо одного слова придётся писать несколько предложений, полных математических терминов. Не стоит строить далекоидущие выводы на основе научно-популярных публикаций.

        Что касается мультимодальности... Ну блин, да. Её используют. Но повторюсь - текст - универсален, видео - нет.


        1. Fech Автор
          16.02.2026 07:58

          Я понял Вашу мысль о том, что текст это универсальный инструмент и я с ней согласен. Я не избавляюсь от текста, я хочу избавиться от трансформеров, ибо они не смогут дать понимание, которое необходимо

          Ответ ЛЛМ модели это сложный математический анализ, наш ответ это цепочка сложных механизмов связанных как раз опытом. Если мы не можем что то получить в очую у нас всегда есть возможность это с чем то сравнить, мы используем причину-следственную связь и прочие механизмы, которых нет у ЛЛМ

          А английский язык это 7-битный код. И что? Можно сказать, что русский - это 35-ричный код

          нет, нельзя, Вы говорите о техническом кодировании символов (биты и байты), а я говорю о семантическом кодировании смыслов. Любой набор букв технически является кодом, но семантически это шум. Язык это не просто код символов, это код смыслов, привязанных к опыту. ЛЛМ оперируют первым, но не имеют доступа ко второму

          Современная проблема ЛЛМ это отсутствие понимания, и об этом статья, модель не понимает что она говорит, у нее есть набор инструкций и все, без понимания и смысла


          1. YMA
            16.02.2026 07:58

            Проблема "китайской комнаты". Как понять, есть ли у модели понимание?

            Ответ ЛЛМ модели это сложный математический анализ, наш ответ это цепочка сложных механизмов связанных как раз опытом.

            ...наш ответ - это цепочка сложных электрохимических процессов в структурах мозга, выстроенных в процессе обучения. :) Если взять один отдельный нейрон - очевидно, что он не обладает ни сознанием, ни пониманием. Эти категории рождаются где-то выше по структуре.


    1. Afiligran
      16.02.2026 07:58

      Почтовый индекс, дрель и синий, ящик мусора. Не всё так однозначно ... )))

      Люди думают по разному, на основе своего опыта. Мы довольно разные все, как ни крути. LLM думает иначе, подбирая вероятность того что уже думали люди.


      1. michaelkuz
        16.02.2026 07:58

        Просто у нас температура 36. При такой выставленной температуре все xLM галлюционируют


    1. RavenStark
      16.02.2026 07:58

      Не сработало. Только молоток. Упс.

      Человеческий мозг не подбирает слова по частотности, он оперирует смыслами, символами, а слова служат лишь оберткой, помогающей коммуникации, в том числе, с самим собой. Они вторичны. Для LLM они — основа.


    1. RavenStark
      16.02.2026 07:58

      Удалено по причине дублирования