Языковые модели пишут код, сочиняют стихи, сдают юридические экзамены. Но вот в чём парадокс: они не понимают ни слова из того, что говорят. Потому что они просто предсказывают, какое слово должно идти следующим. А люди учатся иначе — мы познаём, как устроен мир, как объекты движутся и взаимодействуют в пространстве. Модели так не могут. Именно это фундаментальное ограничение объясняет, почему эпоха безудержного хайпа вокруг ИИ подходит к концу. 2026-й станет годом отрезвления.

Почему «больше» перестало означать «лучше»

Десять лет индустрия жила по простой формуле: увеличь модель в сто раз по числу параметров — получишь качественный скачок. В 2020 году OpenAI выпустила GPT-3 и доказала, что это работает. Началась гонка за масштабом: больше данных, больше вычислений, больше параметров.

Но сейчас результаты выходят на плато. Илья Суцкевер, один из пионеров глубокого обучения, признаёт: предобучение упёрлось в потолок, нужны новые идеи. Ян Лекун, бывший главный учёный Meta по ИИ, ушёл строить собственный стартап с оценкой в 5 миллиардов долларов — потому что убеждён: трансформеры исчерпали себя, и в ближайшие пять лет появится принципиально новая архитектура.

Маленькое побеждает большое

Пока гиганты ищут прорыв, бизнес уже нашёл решение — и оно неожиданно простое. Компактные языковые модели, настроенные под конкретные задачи, обходят универсальных гигантов по всем параметрам: точности, скорости, стоимости. AT&T, один из крупнейших телекомов мира, делает ставку именно на них. Французский стартап Mistral доказывает на бенчмарках: после тонкой настройки маленькие модели работают лучше больших.

У компактных моделей есть ещё одно преимущество: их можно запускать локально, прямо на устройстве пользователя — без облака, без задержек, без передачи данных наружу. А в эпоху ИИ-агентов, которая только начинается, именно маленькие модели станут рабочей лошадкой индустрии.

Модели, которые понимают пространство

Но главная ставка — не на язык, а на понимание физического мира. Многие исследователи считают, что следующий большой прорыв произойдёт благодаря «мировым моделям» — системам ИИ, которые изучают, как объекты движутся и взаимодействуют в трёхмерном пространстве, чтобы делать прогнозы и предпринимать действия.

Деньги уже текут в эту область рекой. Стартап General Intuition привлёк 134 миллиона долларов на посевном раунде. Фей-Фей Ли запустила коммерческий продукт World Labs. Google DeepMind развивает Genie. Runway выпустила первую мировую модель. Аналитики PitchBook прогнозируют: рынок мировых моделей в игровой индустрии вырастет с 1,2 миллиарда долларов до 276 миллиардов к 2030 году. Видеоигры станут первым полигоном, но за ними — роботы и автономные системы.

ИИ-агенты получили «розетку»

ИИ-агенты провалились в 2025 году не потому, что были глупы. Им просто не к чему было подключиться — базы данных, API, рабочие инструменты оставались недоступны. Решением стал протокол MCP от Anthropic — своего рода «USB-C для ИИ». OpenAI, Microsoft и Google уже поддержали стандарт. Теперь агенты готовы выполнять реальные задачи: от клиентской поддержки до управления недвижимостью.

Что остаётся неизменным

Архитектуры меняются, модели становятся компактнее, агенты — умнее. Но какую бы стратегию ни выбрал бизнес — большие модели или компактные, облако или периферию — фундаментом остаётся инфраструктура для машинного обучения. А ещё не меняется тот, кто принимает решения.

Человек — по-прежнему главный

В 2024 году каждая ИИ-компания обещала автоматизировать рабочие места. Этого не произошло — технология оказалась не готова. В 2026-м риторика изменится: ИИ будет усиливать человека, а не заменять его. Ожидается рост новых профессий в области управления ИИ, безопасности и работы с данными. Прогноз по безработице — ниже 4%.

Гонка продолжается. Но индустрия наконец-то начинает трезветь.

Комментарии (43)


  1. psychotv
    21.01.2026 10:21

    Языковые модели пишут код, сочиняют стихи, сдают юридические экзамены. Но вот в чём парадокс: они не понимают ни слова из того, что говорят. Потому что они просто предсказывают, какое слово должно идти следующим. А люди учатся иначе

    Учатся иначе, а говорят... "часто" точно так же как LLM:

    см. статья на хабре:

    >Как нейробиолог разрушила главный миф о связи речи с интеллектом и причем тут вообще LLM


    >Однако исследования Эвелины Федоренко, нейробиолога из MIT (Массачусетского технологического института), не оставили от этой красивой теории камня на камне. Оказалось, что в мозге каждого взрослого человека работает специализированный «языковой парсер», который не имеет никакого отношения к высокоуровневому мышлению. 

    Так вот вопрос, а может большая часть людей "свои мысли" тоже "генерит" предсказывая фразы которые "ставят" после других фраз? Другими словами - "повторяют за телевизором" (С).


    1. MAXH0
      21.01.2026 10:21

      ИМХО Вы правы и не правы одновременно...

      Нейросеть человека иерархична.

      1. Бессознательное: набор низкоуровневых эвристик - установок, которые позволяют нам прикинуть решение, в которое мы признали достоверным.

      2. Сознание. Аналог рассуждений в LLM. Так же как и в случае нейросетей, сознание скорее обосновывает постфактум готовый ответ, чем реально описывает процесс его получения.

      3. Вербальный уровень. Описание на языке. Формируется у человека лет в 10 - 14...

      4. Логический уровень. Нет "из каропки". Его требуется изучать и учиться применять на практике самостоятельно.

        Пока нейросеть очень бедно осилила первые два уровня, но не в реальном мире, а во вторичном мире описаний и картинок, собранных в Интернет.


    1. nehrung
      21.01.2026 10:21

      @psychotv, цитата в вашем комментарии оборвана, надо бы её продолжить:

      Модели так не могут.

      Автор статьи поспешил заявить это, а ведь классик предупреждал - "Никогда не говори "никогда"". Да, не могут, но ведь это нынешние. А в развитии ИИ месяц идёт за год, если не больше. Так что надо подождать, причём совсем немного. Это во-первых.

      А во-вторых, как хорошо разъяснено в комментарии ниже, если внимательно всмотреться в мышление человека (да даже в собственное, оно всегда под рукой), то окажется что и человек мыслит в основном на том же принципе предсказания следующего слова. Можно предположить, что эта игра вероятностями - вообще основной принцип того, что мы называем мышлением.


      1. NeriaLab
        21.01.2026 10:21

        Человек так не мыслит. Если Вы утверждаете обратное, не могли бы Вы предоставить ссылки на рецензируемые научные работы, по нейробиологии или когнитивистике, где доказано, что человеческий мозг работает по принципу статистического предсказания следующего токена?

        А если серьезно, то это лишь умозрительная гипотеза, которая на сегодняшний день не имеет под собой твердой доказательной базы. Сводить всё многообразие когнитивных процессов, формирования смыслов и работы сознания к "игре вероятностей" - это огромная натяжка и попытка антропоморфизировать алгоритмы ИИ, а не объяснить устройство человеческого разума. Почитайте:

        • Джерри Фодор в работе "The Language of Thought" (1975) предложил гипотезу ментального языка ("mentalese") - внутренняя символическая система, на которой "работает мышление";

        • Стивен Пинкер - яркий пример. Какая основная мысль проходит через две его работы: "The Language Instinct" (1994) и "How the Mind Works" (1997)?! "Мысли не состоят из слов. Язык - это интерфейс между мыслями и другими людьми";

        • Берём работу Лакоффа "Philosophy in the Flesh" и что мы в ней видим? Цитата: "...Эта модель существует до и независимо от языка..."

        На эти, как и многие другие классические работы в современной науке о мышлении, до сих пор приводится огромное количество ссылок. Современная когнитивистика продолжает развивать идеи о том, что разум оперирует концептами и логическими структурами, а не просто играет в вероятности.


        1. nehrung
          21.01.2026 10:21

          Ссылок не будет, поскольку вышенаписанное - это моё оценочное суждение, сделанное в основном на основе наблюдения за тем, что варится в моей собственной голове. А что касается приведённых вами ссылок (и надо полагать, что это не ещё все, и даже не одна десятая, и даже не одна сотая того, на что можно сослаться по этой тематике), то это означает лишь, что работы вовсю продолжаются, и это не останется без последствий в самом ближайшем будущем. Именно это я и спрогнозировал выше.


          1. NeriaLab
            21.01.2026 10:21

            Ссылаться на то, что "варится в голове", когда речь идет о биологических алгоритмах - это подмена фактов. Вы имеете право на свои заблуждения, как и я, как и многие другие, но не стоит выдавать их за альтернативную науку. Научный консенсус года однозначен: биологический мозг и LLM обучаются принципиально по-разному и работают тоже по-разному.


        1. psychotv
          21.01.2026 10:21

          имхо вы смешиваете мышление и речь.


      1. Batyaman20012026
        21.01.2026 10:21

        то окажется что и человек мыслит в основном на том же принципе предсказания следующего слова.

        По-моему, касательно человека для этого есть более подходящее название - словоблудие. Мышление не ограничивается подбором слов. В основе лежит формирование различных типов образов, основанных на сенсорном восприятии окружающего мира. Запускается мышление актуальными задачами. В вербальную форму облекается для общения или по привычке вести диалог с самим собой, а по сути - с виртуальным собеседником.


        1. nehrung
          21.01.2026 10:21

          Всё верно. Но если ИИ освоил словоблудие (и судя по резко возросшему качеству автоматического перевода с языка на язык - неплохо освоил), то освоить всё остальное ему не составит долгого труда. До какого-то порога ему в этом будут помогать люди, а дальше - самостоятельно. Переход этого порога мы заметим по резко (на порядки) возросшей скорости "поумнения" ИИ.

          Ну а после этого человечеству останется ... почивать на лаврах (мягко говоря).


      1. michael_v89
        21.01.2026 10:21

        то окажется что и человек мыслит в основном на том же принципе предсказания следующего слова

        Если бы это было так, речь бы никогда не появилась. Для появления речи уже нужно мышление.


        1. psychotv
          21.01.2026 10:21

          Если бы это было так, речь бы никогда не появилась. Для появления речи уже нужно мышление.

          Вот есть канонический пример - язык движений у пчел. Когда они с помощью определенных движений (танца) "объясняют" маршрут полета до места где много нектара. Речь? Речь! Есть здесь "мышление"? Очевидно нету т.к. это насекомые! Даже не животные.


          1. NeriaLab
            21.01.2026 10:21

            Уважаемый, Вы изучали зоопсихологию?

            Посоветую изучить такие работы: Ж.И.Резниковой, Л.В.Крушинского, И.Б. Головановой и многих других. Вы удивитесь, но у насекомых есть мышление


          1. michael_v89
            21.01.2026 10:21

            Очевидно нету т.к. это насекомые!

            Вы постулируете без всяких доказательств, что у насекомых нет мышления. При этом сами же приводите пример передачи и обработки информации.


            1. psychotv
              21.01.2026 10:21

              А вы постулируете без всяких доказательств, что у насекомых есть мышление ?

              > При этом сами же приводите пример передачи и обработки информации.

              ??? примеров передачи и обработки информации полным полно например в органической, да и в неорганической химии.


              1. michael_v89
                21.01.2026 10:21

                Доказательство вы сами привели - у пчел есть знаки, которые они используют для передачи информации.

                Ну покажите примеры из химии, когда одно соединение начинает двигаться в точку, информация о которой указана в другом соединении.


      1. BHtrue
        21.01.2026 10:21

        Архитектура человеческих мозгов иерархична, многие разделы мозга работают параллельно, а в логичкском мышлении основой вообще является модель мира, которая скорее граф связей между весьма чётко определёнными объектами. Если мозги и с чем то сравнивать, то точно не с сырой LLM которая генерирует наиболее вероятный ответ, а со сложной ИИ-агентской системой с кучей инструментов и ragов, с верификацией на выходе, и часть инструментов являются вообще не на базе LLM, а на базе  принципиально других типов нейронок. А сверху ещё и нестатичный  и невербальный приоритезатор накинут


      1. psychotv
        21.01.2026 10:21

        Можно предположить, что эта игра вероятностями - вообще основной принцип того, что мы называем мышлением.

        вот тут имхо большая ловушка - мышлением или речевыми актами?

        Эта проблема не нова в начале 20в. в области философии случилось знаковое "открытие" - "Лингвистический поворот".


  1. engine9
    21.01.2026 10:21

    Мне кажется, что сам термин "понимание" может быть своеобразным описательным костылём, дающим иллюзию объяснения. Это как с компьютерным "мёртвым" творчеством и "живым" человеческим, вроде очевидно любому, но эти термины не дают объяснения.

    Самоё стрёмное то, что внушительная часть человеческой культуры состоит из подобного...


  1. dimas846
    21.01.2026 10:21

    А люди учатся иначе — мы познаём, как устроен мир, как объекты движутся и взаимодействуют в пространстве. Модели так не могут. Именно это фундаментальное ограничение объясняет, почему эпоха безудержного хайпа вокруг ИИ подходит к концу.

    Ну с чего вдруг такой вывод? "Модели так не могут", а им может так и не надо? Результат как водится можно достичь разными путями. Не вижу фундаментального ограничения, или расскажите подробнее что имелось ввиду


    1. MAXH0
      21.01.2026 10:21

      Давайте я обосную "умный ИИ в мире ничего не понимает". Возможно автор имел другое, но я дам свое ИМХО по поводу ЭТОЙ фразы.
      Человек оперирует реальным миром через понятийный аппарат. Все понятия он формирует оперируя РЕАЛЬНЫМ МИРОМ. Когда мать 100500 раз повторяет чаду - "Смотри! Киса - мяу!" она формирует у ребенка понятие кошки.

      LLM действует не так. Она никогда не видела, не трогала и не слышала "кису-мяу". Она не получала понятие из диалога с миром, а вычислила паттерн корреляций между токенами. Для неё «кошка» — это не живой пушистый комок с запахом и теплом, а статистический узел в сети слов, тесно связанный с «мяу», «хвостом» и «видео с YouTube». Её понятия — это карта без территории, симулякр понимания, оторванный от чувственного опыта и предметной деятельности. Она оперирует тенью нашего понятийного аппарата, поэтому, генерируя идеальный текст о мире, в самом мире ничего не понимает.

      Т.е. LLM действует заёмным понятийным аппаратом и ничего не понимает в реальном мире.


      1. dimas846
        21.01.2026 10:21

        Верно, LLM не могла ни видеть, не слышать кошку, не потрогать ее в нашем понимании. У LLM нет таких органов чувств! Но LLM получает огромное и возможно исчерпывающее количество информации о кошке через человеческие органы чувств по средствам ее описания, изображения, отношения к кошке других существ и т.п. В итоге понятие "кошка" у LMM сформировано и связано с другими понятиями примерно так же как у человека.
        То есть человек записал в смой мозг сигналы со своего сенсора (глаза, уши и т.д), а для LLM сенсорами являются результаты человеческого восприятия (видео, тексты и т.п)


        1. engine9
          21.01.2026 10:21

          >через человеческие органы чувств по средствам ее описания

          Это примерно как "я читал о сексе в книгах, это скучно". Описание это вообще не то же самое сенсорное восприятие.


          1. dimas846
            21.01.2026 10:21

            Ну так ведь вы очеловечиваете LLM. Она априори не может действовать и чувствовать как человек и требовать от нее этого было бы странно. Да LLM может внутри не переживает и не рефлексирует как человек, но она прекрасно понимает что такое секс, для чего он, каким бывает и какие эмоции вызывает у человека.
            В статье утверждается что "они не понимают ни слова из того, что говорят". Мы же не верим в то, что понимать может только человек и понимать можно только так как понимает человек?
            Человек же понимает что такое электромагнетизм, хотя на глаз, слух и запах его не пробовал?


            1. engine9
              21.01.2026 10:21

              Нет, я конкретно парировал то что описание ощущений это совсем не то, что ощущения данные через рецепторы (которые развились в нас в процессе эволюционного отбора). Вот вы можете по самому детальному описанию понять вкус и запах экзотического фрукта, который никогда не пробовали? Да хоть диссертацию прочитайте это не даст понимания.

              А нейронка обо всём в книжках читала, да сама ни разу не пробовала.

              Про термин "понимание" я чуть выше высказался, по-моему, это виртуальный и слишком обобщенный термин который сам по себе проблема.

              Кстати, вот электрические процессы для меня стали гораздо понятнее, когда я сам собрал цепи и глазами увидел как на приборах стрелки отклоняются. Человеку вообще органически свойственно присваивать приспособления и предметы в качестве органов чувств, например, слепые люди трость используют как орган осязания, а опытные водители по косвенным признакам чувствуют автомобиль, сцепление колёс с дорогой, работу двигателя и т.п.


          1. helg1978
            21.01.2026 10:21

            человеческий мозг тоже не может потрогать и увидеть кошку сам - он использует данные пришедшие по интерфейсу, и научился их шаблонизировать.

            LLM при обучении действует похожим образом, просто быстрее и эфективнее.

            Наше сознание - всего лишь саморефлексия в континиуме (наверное, может личность умирает и рождается каждую планковсскую единицу времени), а LLM - не живет в риалтайме.


            1. MAXH0
              21.01.2026 10:21

              Наше сознание - всего лишь саморефлексия в континиуме (наверное, может личность умирает и рождается каждую планковсскую единицу времени), а LLM - не живет в риалтайме.

              Да Вы - поэт! Это скорее буддийская концепция анатмана обусловленного мгновенностью существования дхарм.
              Научного доказательства эта фраза не имеет: Вы сводите сознание к одному из его свойств - рефлексии, зачем то вворачиваете слово континуум (с опечаткой), а затем выдвигаете недоказуемую идею о непрерывных смертях/воскрешениях сознания. Которую нельзя ни доказать, ни опровергнуть, поскольку она не обладает строгостью и скорее метафора. Планковская единица времени слишком мала, чтобы даже шевельнулся один из атомов мозга, не говоря о том, чтобы сознание погибло и воскресло.

              Именно об этом я и говорил выше, что Логика не дана нам "из каропки" и надо учиться ей пользоваться. Мы (иногда) умеем в логику. LLM, пока, нет...


              1. BHtrue
                21.01.2026 10:21

                Соре за оффтоп, но вообще, к идеи про смерть и рождение сознания как квантового состояния можно прийти из физики-- во вторичном квантовании любят так делать, есть операторы рождения и уничтожения состояния (а и а крест обычно записывают), а за характерный временной масштаб изменений можно взять время реакции (или промежуток в который мозг воспринимает события как одновременные, порядка 100мс)


                1. MAXH0
                  21.01.2026 10:21

                  Донт воря, би хэпя... Придумайте эксперименты, которые это доказывают и это станет теорией. Если ряд экспериментов сойдутся - научной теорией. Если из этой теории можно будет вывести ранее невыводимые следствия, которые подтвердятся на практике - можно говорить о доказанной теории.


            1. engine9
              21.01.2026 10:21

              Человеческий мозг имеет интеракцию с кошкой, о чем я упоминал. Он может её взять в руки, почувствовать её размеры, вес, температуру, фактуру шерсти, может узнать её повадки и т.п. Нейрока же слышала тысячи рассказов о кошке, но у неё не формируется структурное мышление (отличная статья).

              Примерно так в средник века представляли как выглядят разные морские животные по описанию :)
              Примерно так в средник века представляли как выглядят разные морские животные по описанию :)


        1. uranik
          21.01.2026 10:21

          результаты человеческого восприятия (видео

          Так видео снято на камеру, при чем тут человеческое восприятие?


      1. alexanicus
        21.01.2026 10:21

        Ваше ИМХО довольно точно описывает суть проблемы. Равносильно, если человеку рассказать, что "на некой планете Нибиру существует шерстистый многоглазый Нибаку".
        И вот имея такую базу знаний можно ответить на множество вопросов:
        Сколько глаз у Нибаку? Много
        Где живёт Нибаку? На Нибиру.
        Теперь философский вопрос сколько абстрактных ассоциаций нужно иметь, чтобы это можно было классифицировать как "понимать".
        Ответ уже был дан в проекте DeepMind:
        AGI не имеет определения, так как является множеством вариаций и методологий прогнозирования и взаимодействия с миром. Мы лишь можем судить о степени компетентности AGI в интересующей нас области.


    1. engine9
      21.01.2026 10:21

      Я думаю потому что у моделей нет процесса интеракции с миром (нет ручек ножек и сенсоров, дающих мгновенную ответную реакцию).


  1. kryvichh
    21.01.2026 10:21

    эпоха безудержного хайпа вокруг ИИ подходит к концу. 2026-й станет годом отрезвления.

    2026-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта. Сдерживающим фактором будут скорее не недостатки технологии, а резкое подорожание/недоступность мощного железа для его запуска.


    1. psychotv
      21.01.2026 10:21

      2024-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта
      2025-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта
      2026-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта



      1. cruiseranonymous
        21.01.2026 10:21

        Если читать как "будет годом упорного впихивания нейросеток во все сферы в попытках найти инвестиции, прибыль, из любопытства, и/или застолбить участок под будущую мечтаемую прибыль" - то может так и будет(даже наверняка, потому что прошлые годы так и делали)
        И да, недостатки технологии впихивающих точно не остановят.


  1. amustafin59
    21.01.2026 10:21

    Не верю! ©не мое; "Ни когда ты не будешь майором"®Высоцкий.

    Модель мира в голове строится и настраивается ощущениями (боль) и ЭМОЦИЯМИ. Пока обучают ИИ толко ”кнутом и пряником” больше пряником. Эмоции это идеальное. Их в алгоритм не засунешь. Формулой не опишешь. Словами не опишешь. То есть описать конечно можно, хорошая литература их описывает и вызывает, но только для того, кто эти эмоции испытывал. И музыка и стихи от ИИ эмоции вызовут, но сам ИИ не может знать, что это такое.


  1. ToniDoni
    21.01.2026 10:21

    Такой замечательный глубокий текст, прочитал и сразу стало понятно где сознание где искусственный интеллект где человек, а до этого было непонятно понимает ли ллмка то что она пишет, а теперь понятно что не понимает, а автор понимает.

    большое спасибо компании Клауд фо ю за такие познавательные блоги.


  1. akod67
    21.01.2026 10:21

    Человекоподобные роботы как обучаются своим движениям? Что мешает в итоге скрестить оба мира - нефизический и физический?


  1. Viacheslav01
    21.01.2026 10:21

    На самом деле LLM показывают, то что мы считали разумом и интеллектом это просто предсказания на основе статистики собранной мозгом за время его существования.


    1. NeriaLab
      21.01.2026 10:21

      Приведите доказательства, пожалуйста. Дайте список научных работ, которые могли бы это подтвердить - факты, Сэр


      1. Viacheslav01
        21.01.2026 10:21

        А передумал, потер, не хочу развивать дискусию.
        К первому сообщению относитесь как к моему частному менияю


  1. JM777
    21.01.2026 10:21

    Те, кто разбирался в нейросетях ещё в нулевых, те и так это знали. А всякие диванные нейрофизиологи только сейчас делают для себя открытия.


  1. JM777
    21.01.2026 10:21

    Автор, если вы перестанете вставлять в названия ставшее уже кринжовым "и вот почему", будет только лучше. Это уже как индикатор плохого качества статьи.