Языковые модели пишут код, сочиняют стихи, сдают юридические экзамены. Но вот в чём парадокс: они не понимают ни слова из того, что говорят. Потому что они просто предсказывают, какое слово должно идти следующим. А люди учатся иначе — мы познаём, как устроен мир, как объекты движутся и взаимодействуют в пространстве. Модели так не могут. Именно это фундаментальное ограничение объясняет, почему эпоха безудержного хайпа вокруг ИИ подходит к концу. 2026-й станет годом отрезвления.
Почему «больше» перестало означать «лучше»
Десять лет индустрия жила по простой формуле: увеличь модель в сто раз по числу параметров — получишь качественный скачок. В 2020 году OpenAI выпустила GPT-3 и доказала, что это работает. Началась гонка за масштабом: больше данных, больше вычислений, больше параметров.

Но сейчас результаты выходят на плато. Илья Суцкевер, один из пионеров глубокого обучения, признаёт: предобучение упёрлось в потолок, нужны новые идеи. Ян Лекун, бывший главный учёный Meta по ИИ, ушёл строить собственный стартап с оценкой в 5 миллиардов долларов — потому что убеждён: трансформеры исчерпали себя, и в ближайшие пять лет появится принципиально новая архитектура.
Маленькое побеждает большое
Пока гиганты ищут прорыв, бизнес уже нашёл решение — и оно неожиданно простое. Компактные языковые модели, настроенные под конкретные задачи, обходят универсальных гигантов по всем параметрам: точности, скорости, стоимости. AT&T, один из крупнейших телекомов мира, делает ставку именно на них. Французский стартап Mistral доказывает на бенчмарках: после тонкой настройки маленькие модели работают лучше больших.
У компактных моделей есть ещё одно преимущество: их можно запускать локально, прямо на устройстве пользователя — без облака, без задержек, без передачи данных наружу. А в эпоху ИИ-агентов, которая только начинается, именно маленькие модели станут рабочей лошадкой индустрии.
Модели, которые понимают пространство
Но главная ставка — не на язык, а на понимание физического мира. Многие исследователи считают, что следующий большой прорыв произойдёт благодаря «мировым моделям» — системам ИИ, которые изучают, как объекты движутся и взаимодействуют в трёхмерном пространстве, чтобы делать прогнозы и предпринимать действия.

Деньги уже текут в эту область рекой. Стартап General Intuition привлёк 134 миллиона долларов на посевном раунде. Фей-Фей Ли запустила коммерческий продукт World Labs. Google DeepMind развивает Genie. Runway выпустила первую мировую модель. Аналитики PitchBook прогнозируют: рынок мировых моделей в игровой индустрии вырастет с 1,2 миллиарда долларов до 276 миллиардов к 2030 году. Видеоигры станут первым полигоном, но за ними — роботы и автономные системы.
ИИ-агенты получили «розетку»
ИИ-агенты провалились в 2025 году не потому, что были глупы. Им просто не к чему было подключиться — базы данных, API, рабочие инструменты оставались недоступны. Решением стал протокол MCP от Anthropic — своего рода «USB-C для ИИ». OpenAI, Microsoft и Google уже поддержали стандарт. Теперь агенты готовы выполнять реальные задачи: от клиентской поддержки до управления недвижимостью.
Что остаётся неизменным
Архитектуры меняются, модели становятся компактнее, агенты — умнее. Но какую бы стратегию ни выбрал бизнес — большие модели или компактные, облако или периферию — фундаментом остаётся инфраструктура для машинного обучения. А ещё не меняется тот, кто принимает решения.
Человек — по-прежнему главный
В 2024 году каждая ИИ-компания обещала автоматизировать рабочие места. Этого не произошло — технология оказалась не готова. В 2026-м риторика изменится: ИИ будет усиливать человека, а не заменять его. Ожидается рост новых профессий в области управления ИИ, безопасности и работы с данными. Прогноз по безработице — ниже 4%.
Гонка продолжается. Но индустрия наконец-то начинает трезветь.
Комментарии (43)

engine9
21.01.2026 10:21Мне кажется, что сам термин "понимание" может быть своеобразным описательным костылём, дающим иллюзию объяснения. Это как с компьютерным "мёртвым" творчеством и "живым" человеческим, вроде очевидно любому, но эти термины не дают объяснения.
Самоё стрёмное то, что внушительная часть человеческой культуры состоит из подобного...

dimas846
21.01.2026 10:21А люди учатся иначе — мы познаём, как устроен мир, как объекты движутся и взаимодействуют в пространстве. Модели так не могут. Именно это фундаментальное ограничение объясняет, почему эпоха безудержного хайпа вокруг ИИ подходит к концу.
Ну с чего вдруг такой вывод? "Модели так не могут", а им может так и не надо? Результат как водится можно достичь разными путями. Не вижу фундаментального ограничения, или расскажите подробнее что имелось ввиду

MAXH0
21.01.2026 10:21Давайте я обосную "умный ИИ в мире ничего не понимает". Возможно автор имел другое, но я дам свое ИМХО по поводу ЭТОЙ фразы.
Человек оперирует реальным миром через понятийный аппарат. Все понятия он формирует оперируя РЕАЛЬНЫМ МИРОМ. Когда мать 100500 раз повторяет чаду - "Смотри! Киса - мяу!" она формирует у ребенка понятие кошки.LLM действует не так. Она никогда не видела, не трогала и не слышала "кису-мяу". Она не получала понятие из диалога с миром, а вычислила паттерн корреляций между токенами. Для неё «кошка» — это не живой пушистый комок с запахом и теплом, а статистический узел в сети слов, тесно связанный с «мяу», «хвостом» и «видео с YouTube». Её понятия — это карта без территории, симулякр понимания, оторванный от чувственного опыта и предметной деятельности. Она оперирует тенью нашего понятийного аппарата, поэтому, генерируя идеальный текст о мире, в самом мире ничего не понимает.
Т.е. LLM действует заёмным понятийным аппаратом и ничего не понимает в реальном мире.

dimas846
21.01.2026 10:21Верно, LLM не могла ни видеть, не слышать кошку, не потрогать ее в нашем понимании. У LLM нет таких органов чувств! Но LLM получает огромное и возможно исчерпывающее количество информации о кошке через человеческие органы чувств по средствам ее описания, изображения, отношения к кошке других существ и т.п. В итоге понятие "кошка" у LMM сформировано и связано с другими понятиями примерно так же как у человека.
То есть человек записал в смой мозг сигналы со своего сенсора (глаза, уши и т.д), а для LLM сенсорами являются результаты человеческого восприятия (видео, тексты и т.п)
engine9
21.01.2026 10:21>через человеческие органы чувств по средствам ее описания
Это примерно как "я читал о сексе в книгах, это скучно". Описание это вообще не то же самое сенсорное восприятие.
dimas846
21.01.2026 10:21Ну так ведь вы очеловечиваете LLM. Она априори не может действовать и чувствовать как человек и требовать от нее этого было бы странно. Да LLM может внутри не переживает и не рефлексирует как человек, но она прекрасно понимает что такое секс, для чего он, каким бывает и какие эмоции вызывает у человека.
В статье утверждается что "они не понимают ни слова из того, что говорят". Мы же не верим в то, что понимать может только человек и понимать можно только так как понимает человек?
Человек же понимает что такое электромагнетизм, хотя на глаз, слух и запах его не пробовал?
engine9
21.01.2026 10:21Нет, я конкретно парировал то что описание ощущений это совсем не то, что ощущения данные через рецепторы (которые развились в нас в процессе эволюционного отбора). Вот вы можете по самому детальному описанию понять вкус и запах экзотического фрукта, который никогда не пробовали? Да хоть диссертацию прочитайте это не даст понимания.
А нейронка обо всём в книжках читала, да сама ни разу не пробовала.Про термин "понимание" я чуть выше высказался, по-моему, это виртуальный и слишком обобщенный термин который сам по себе проблема.
Кстати, вот электрические процессы для меня стали гораздо понятнее, когда я сам собрал цепи и глазами увидел как на приборах стрелки отклоняются. Человеку вообще органически свойственно присваивать приспособления и предметы в качестве органов чувств, например, слепые люди трость используют как орган осязания, а опытные водители по косвенным признакам чувствуют автомобиль, сцепление колёс с дорогой, работу двигателя и т.п.

helg1978
21.01.2026 10:21человеческий мозг тоже не может потрогать и увидеть кошку сам - он использует данные пришедшие по интерфейсу, и научился их шаблонизировать.
LLM при обучении действует похожим образом, просто быстрее и эфективнее.
Наше сознание - всего лишь саморефлексия в континиуме (наверное, может личность умирает и рождается каждую планковсскую единицу времени), а LLM - не живет в риалтайме.

MAXH0
21.01.2026 10:21Наше сознание - всего лишь саморефлексия в континиуме (наверное, может личность умирает и рождается каждую планковсскую единицу времени), а LLM - не живет в риалтайме.
Да Вы - поэт! Это скорее буддийская концепция анатмана обусловленного мгновенностью существования дхарм.
Научного доказательства эта фраза не имеет: Вы сводите сознание к одному из его свойств - рефлексии, зачем то вворачиваете слово континуум (с опечаткой), а затем выдвигаете недоказуемую идею о непрерывных смертях/воскрешениях сознания. Которую нельзя ни доказать, ни опровергнуть, поскольку она не обладает строгостью и скорее метафора. Планковская единица времени слишком мала, чтобы даже шевельнулся один из атомов мозга, не говоря о том, чтобы сознание погибло и воскресло.Именно об этом я и говорил выше, что Логика не дана нам "из каропки" и надо учиться ей пользоваться. Мы (иногда) умеем в логику. LLM, пока, нет...

BHtrue
21.01.2026 10:21Соре за оффтоп, но вообще, к идеи про смерть и рождение сознания как квантового состояния можно прийти из физики-- во вторичном квантовании любят так делать, есть операторы рождения и уничтожения состояния (а и а крест обычно записывают), а за характерный временной масштаб изменений можно взять время реакции (или промежуток в который мозг воспринимает события как одновременные, порядка 100мс)

MAXH0
21.01.2026 10:21Донт воря, би хэпя... Придумайте эксперименты, которые это доказывают и это станет теорией. Если ряд экспериментов сойдутся - научной теорией. Если из этой теории можно будет вывести ранее невыводимые следствия, которые подтвердятся на практике - можно говорить о доказанной теории.

engine9
21.01.2026 10:21Человеческий мозг имеет интеракцию с кошкой, о чем я упоминал. Он может её взять в руки, почувствовать её размеры, вес, температуру, фактуру шерсти, может узнать её повадки и т.п. Нейрока же слышала тысячи рассказов о кошке, но у неё не формируется структурное мышление (отличная статья).

Примерно так в средник века представляли как выглядят разные морские животные по описанию :)

uranik
21.01.2026 10:21результаты человеческого восприятия (видео
Так видео снято на камеру, при чем тут человеческое восприятие?

alexanicus
21.01.2026 10:21Ваше ИМХО довольно точно описывает суть проблемы. Равносильно, если человеку рассказать, что "на некой планете Нибиру существует шерстистый многоглазый Нибаку".
И вот имея такую базу знаний можно ответить на множество вопросов:
Сколько глаз у Нибаку? Много
Где живёт Нибаку? На Нибиру.
Теперь философский вопрос сколько абстрактных ассоциаций нужно иметь, чтобы это можно было классифицировать как "понимать".
Ответ уже был дан в проекте DeepMind:
AGI не имеет определения, так как является множеством вариаций и методологий прогнозирования и взаимодействия с миром. Мы лишь можем судить о степени компетентности AGI в интересующей нас области.

engine9
21.01.2026 10:21Я думаю потому что у моделей нет процесса интеракции с миром (нет ручек ножек и сенсоров, дающих мгновенную ответную реакцию).

kryvichh
21.01.2026 10:21эпоха безудержного хайпа вокруг ИИ подходит к концу. 2026-й станет годом отрезвления.
2026-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта. Сдерживающим фактором будут скорее не недостатки технологии, а резкое подорожание/недоступность мощного железа для его запуска.

psychotv
21.01.2026 10:212024-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта2025-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта
2026-й станет годом практического внедрения ИИ во все сферы экономики, культуры, быта

cruiseranonymous
21.01.2026 10:21Если читать как "будет годом упорного впихивания нейросеток во все сферы в попытках найти инвестиции, прибыль, из любопытства, и/или застолбить участок под будущую мечтаемую прибыль" - то может так и будет(даже наверняка, потому что прошлые годы так и делали)
И да, недостатки технологии впихивающих точно не остановят.

amustafin59
21.01.2026 10:21Не верю! ©не мое; "Ни когда ты не будешь майором"®Высоцкий.
Модель мира в голове строится и настраивается ощущениями (боль) и ЭМОЦИЯМИ. Пока обучают ИИ толко ”кнутом и пряником” больше пряником. Эмоции это идеальное. Их в алгоритм не засунешь. Формулой не опишешь. Словами не опишешь. То есть описать конечно можно, хорошая литература их описывает и вызывает, но только для того, кто эти эмоции испытывал. И музыка и стихи от ИИ эмоции вызовут, но сам ИИ не может знать, что это такое.

ToniDoni
21.01.2026 10:21Такой замечательный глубокий текст, прочитал и сразу стало понятно где сознание где искусственный интеллект где человек, а до этого было непонятно понимает ли ллмка то что она пишет, а теперь понятно что не понимает, а автор понимает.
большое спасибо компании Клауд фо ю за такие познавательные блоги.

akod67
21.01.2026 10:21Человекоподобные роботы как обучаются своим движениям? Что мешает в итоге скрестить оба мира - нефизический и физический?

Viacheslav01
21.01.2026 10:21На самом деле LLM показывают, то что мы считали разумом и интеллектом это просто предсказания на основе статистики собранной мозгом за время его существования.

NeriaLab
21.01.2026 10:21Приведите доказательства, пожалуйста. Дайте список научных работ, которые могли бы это подтвердить - факты, Сэр

Viacheslav01
21.01.2026 10:21А передумал, потер, не хочу развивать дискусию.
К первому сообщению относитесь как к моему частному менияю

JM777
21.01.2026 10:21Те, кто разбирался в нейросетях ещё в нулевых, те и так это знали. А всякие диванные нейрофизиологи только сейчас делают для себя открытия.

JM777
21.01.2026 10:21Автор, если вы перестанете вставлять в названия ставшее уже кринжовым "и вот почему", будет только лучше. Это уже как индикатор плохого качества статьи.
psychotv
Учатся иначе, а говорят... "часто" точно так же как LLM:
см. статья на хабре:
>Как нейробиолог разрушила главный миф о связи речи с интеллектом и причем тут вообще LLM
>Однако исследования Эвелины Федоренко, нейробиолога из MIT (Массачусетского технологического института), не оставили от этой красивой теории камня на камне. Оказалось, что в мозге каждого взрослого человека работает специализированный «языковой парсер», который не имеет никакого отношения к высокоуровневому мышлению.
Так вот вопрос, а может большая часть людей "свои мысли" тоже "генерит" предсказывая фразы которые "ставят" после других фраз? Другими словами - "повторяют за телевизором" (С).
MAXH0
ИМХО Вы правы и не правы одновременно...
Нейросеть человека иерархична.
Бессознательное: набор низкоуровневых эвристик - установок, которые позволяют нам прикинуть решение, в которое мы признали достоверным.
Сознание. Аналог рассуждений в LLM. Так же как и в случае нейросетей, сознание скорее обосновывает постфактум готовый ответ, чем реально описывает процесс его получения.
Вербальный уровень. Описание на языке. Формируется у человека лет в 10 - 14...
Логический уровень. Нет "из каропки". Его требуется изучать и учиться применять на практике самостоятельно.
Пока нейросеть очень бедно осилила первые два уровня, но не в реальном мире, а во вторичном мире описаний и картинок, собранных в Интернет.
nehrung
@psychotv, цитата в вашем комментарии оборвана, надо бы её продолжить:
Автор статьи поспешил заявить это, а ведь классик предупреждал - "Никогда не говори "никогда"". Да, не могут, но ведь это нынешние. А в развитии ИИ месяц идёт за год, если не больше. Так что надо подождать, причём совсем немного. Это во-первых.
А во-вторых, как хорошо разъяснено в комментарии ниже, если внимательно всмотреться в мышление человека (да даже в собственное, оно всегда под рукой), то окажется что и человек мыслит в основном на том же принципе предсказания следующего слова. Можно предположить, что эта игра вероятностями - вообще основной принцип того, что мы называем мышлением.
NeriaLab
Человек так не мыслит. Если Вы утверждаете обратное, не могли бы Вы предоставить ссылки на рецензируемые научные работы, по нейробиологии или когнитивистике, где доказано, что человеческий мозг работает по принципу статистического предсказания следующего токена?
А если серьезно, то это лишь умозрительная гипотеза, которая на сегодняшний день не имеет под собой твердой доказательной базы. Сводить всё многообразие когнитивных процессов, формирования смыслов и работы сознания к "игре вероятностей" - это огромная натяжка и попытка антропоморфизировать алгоритмы ИИ, а не объяснить устройство человеческого разума. Почитайте:
Джерри Фодор в работе "The Language of Thought" (1975) предложил гипотезу ментального языка ("mentalese") - внутренняя символическая система, на которой "работает мышление";
Стивен Пинкер - яркий пример. Какая основная мысль проходит через две его работы: "The Language Instinct" (1994) и "How the Mind Works" (1997)?! "Мысли не состоят из слов. Язык - это интерфейс между мыслями и другими людьми";
Берём работу Лакоффа "Philosophy in the Flesh" и что мы в ней видим? Цитата: "...Эта модель существует до и независимо от языка..."
На эти, как и многие другие классические работы в современной науке о мышлении, до сих пор приводится огромное количество ссылок. Современная когнитивистика продолжает развивать идеи о том, что разум оперирует концептами и логическими структурами, а не просто играет в вероятности.
nehrung
Ссылок не будет, поскольку вышенаписанное - это моё оценочное суждение, сделанное в основном на основе наблюдения за тем, что варится в моей собственной голове. А что касается приведённых вами ссылок (и надо полагать, что это не ещё все, и даже не одна десятая, и даже не одна сотая того, на что можно сослаться по этой тематике), то это означает лишь, что работы вовсю продолжаются, и это не останется без последствий в самом ближайшем будущем. Именно это я и спрогнозировал выше.
NeriaLab
Ссылаться на то, что "варится в голове", когда речь идет о биологических алгоритмах - это подмена фактов. Вы имеете право на свои заблуждения, как и я, как и многие другие, но не стоит выдавать их за альтернативную науку. Научный консенсус года однозначен: биологический мозг и LLM обучаются принципиально по-разному и работают тоже по-разному.
psychotv
имхо вы смешиваете мышление и речь.
Batyaman20012026
По-моему, касательно человека для этого есть более подходящее название - словоблудие. Мышление не ограничивается подбором слов. В основе лежит формирование различных типов образов, основанных на сенсорном восприятии окружающего мира. Запускается мышление актуальными задачами. В вербальную форму облекается для общения или по привычке вести диалог с самим собой, а по сути - с виртуальным собеседником.
nehrung
Всё верно. Но если ИИ освоил словоблудие (и судя по резко возросшему качеству автоматического перевода с языка на язык - неплохо освоил), то освоить всё остальное ему не составит долгого труда. До какого-то порога ему в этом будут помогать люди, а дальше - самостоятельно. Переход этого порога мы заметим по резко (на порядки) возросшей скорости "поумнения" ИИ.
Ну а после этого человечеству останется ... почивать на лаврах (мягко говоря).
michael_v89
Если бы это было так, речь бы никогда не появилась. Для появления речи уже нужно мышление.
psychotv
Вот есть канонический пример - язык движений у пчел. Когда они с помощью определенных движений (танца) "объясняют" маршрут полета до места где много нектара. Речь? Речь! Есть здесь "мышление"? Очевидно нету т.к. это насекомые! Даже не животные.
NeriaLab
Уважаемый, Вы изучали зоопсихологию?
Посоветую изучить такие работы: Ж.И.Резниковой, Л.В.Крушинского, И.Б. Головановой и многих других. Вы удивитесь, но у насекомых есть мышление
michael_v89
Вы постулируете без всяких доказательств, что у насекомых нет мышления. При этом сами же приводите пример передачи и обработки информации.
psychotv
А вы постулируете без всяких доказательств, что у насекомых есть мышление ?
> При этом сами же приводите пример передачи и обработки информации.
??? примеров передачи и обработки информации полным полно например в органической, да и в неорганической химии.
michael_v89
Доказательство вы сами привели - у пчел есть знаки, которые они используют для передачи информации.
Ну покажите примеры из химии, когда одно соединение начинает двигаться в точку, информация о которой указана в другом соединении.
BHtrue
Архитектура человеческих мозгов иерархична, многие разделы мозга работают параллельно, а в логичкском мышлении основой вообще является модель мира, которая скорее граф связей между весьма чётко определёнными объектами. Если мозги и с чем то сравнивать, то точно не с сырой LLM которая генерирует наиболее вероятный ответ, а со сложной ИИ-агентской системой с кучей инструментов и ragов, с верификацией на выходе, и часть инструментов являются вообще не на базе LLM, а на базе принципиально других типов нейронок. А сверху ещё и нестатичный и невербальный приоритезатор накинут
psychotv
вот тут имхо большая ловушка - мышлением или речевыми актами?
Эта проблема не нова в начале 20в. в области философии случилось знаковое "открытие" - "Лингвистический поворот".