
Сэм Альтман — безусловно, главная звезда ИИ-бума, начавшегося после запуска ChatGPT в 2022 году. Генеральный директор OpenAI стал лицом всей индустрии, и у него есть своя профессиональная страсть: он просто обожает законы масштабирования.
Именно эти эмпирические правила связывают масштаб модели с ее возможностями. Они же объясняют ту лихорадку, что охватила индустрию: в погоне за мощностью компании сметают с рынка чипы, возводят дата-центры исполинских размеров и ради энергии готовы даже перезапускать закрытые АЭС.
В своем блоге Альтман сформулировал это так: «интеллект» модели примерно равен логарифму ресурсов, ушедших на ее обучение. Рецепт успеха звучит просто, хоть и дорого: можно бесконечно повышать производительность, если экспоненциально «скармливать» системе все больше данных и вычислительных мощностей.
Законы масштабирования LLM, впервые замеченные в 2020 году и уточненные в 2022‑м, родились из анализа графиков с экспериментальными данными. Для инженеров это стало своего рода «дорожной картой». Вместо движения наощупь появилась простая формула: она точно рассчитывает, какого размера нужно строить следующую модель, чтобы гарантированно получить желаемый прирост производительности.
Продолжат ли законы масштабирования работать, когда модели разрастутся до исполинских размеров? ИИ-гиганты делают ставку на «да», подкрепляя свою уверенность сотнями миллиардов долларов. Однако история прогресса учит здоровому скептицизму: то, что на графике выглядит как прямая дорога в небо, в реальности редко оказывается таким уж простым маршрутом.
Законы масштабирования работают не только с ИИ
Законы масштабирования — штука действительно впечатляющая. На них, к примеру, держится вся современная аэродинамика.
Благодаря изящной π-теореме Бэкингема инженеры научились сопоставлять поведение крошечных макетов с реальными гигантами. Будь то продувка в аэродинамической трубе или испытания в специальном бассейне — результаты можно смело переносить на полноразмерные самолеты и корабли. Секрет фокуса прост: нужно лишь убедиться, что совпадают ключевые параметры подобия.
Эти принципы — универсальный фундамент. На них держится все, что вообще способно летать или плавать. Законы масштабирования на удивление демократичны: им с одинаковой строгостью подчиняются и трансатлантические лайнеры, и прозаичные промышленные насосы.
Десятилетиями бурный рост кремниевых чипов опирался на еще одну знаменитую идею масштабирования — закон Мура. Суть проста: каждые два года количество транзисторов — крошечных переключателей на микросхеме — должно удваиваться. Именно этот ритм позволил инженерам создать современные технологии: компактные устройства с вычислительной мощностью, о которой раньше можно было только мечтать.
Здесь кроется важный нюанс: далеко не все «законы масштабирования» столь незыблемы, как и законы природы.
Одни действительно строятся на чистой математике и работают бесконечно. Другие же — лишь линии, проведенные поверх собранной статистики. Они прекрасно предсказывают будущее, но ровно до тех пор, пока мы не уходим уж слишком далеко от условий, в которых получены данные. Да, как только покидаем изученную территорию, магия исчезает.

ML Impact — про ML и AI без хайпа
Все кругом говорят про ML, но многие ли понимают его настоящую пользу для бизнеса? Мы запустили ресурс, который поможет во всем разобраться.
Когда законы масштабирования перестают действовать
История хранит немало болезненных напоминаний о том, к чему приводит нарушение законов масштабирования. Хрестоматийный пример такого инженерного просчета — обрушение моста Такома-Нэрроуз в 1940 году.
Проект разработали методом масштабирования: конструкцию, которая успешно применялась на небольших мостах, превратили в более длинную и узкую форму. Инженеры тогда полностью полагались на неизменность принципов. Они исходили из предположения, что проверенные пропорции универсальны: если привычное соотношение жесткости к длине работало раньше, оно должно сработать и сейчас.
В реальности все пошло не по плану. Обычный умеренный ветер спровоцировал явление, которого никто не ожидал, — аэроупругий флаттер. Возникшая нестабильность оказалась фатальной: пролет моста не выдержал колебаний и рухнул всего через четыре месяца после открытия.
Точно так же и у «законов» микроэлектроники был свой срок годности. Десятилетиями индустрия опиралась на два фундаментальных ориентира. Первый — закон Мура, предрекавший удвоение числа транзисторов каждые пару лет. Второй — масштабирование Деннарда: транзисторы становятся меньше и быстрее, но их энергопотребление остается прежним. Эти правила служили удивительно точными маяками при проектировании чипов и формировании стратегии всей отрасли.
Однако, когда размеры транзисторов уменьшились до нанометров, система дала сбой. Прежние, казалось бы, незыблемые правила масштабирования вступили в конфликт с фундаментальными ограничениями физики.
Как только толщина затворов транзисторов сократилась до масштаба нескольких атомов, начались проблемы. Пошли утечки, и общее поведение стало непредсказуемым. Снижение рабочего напряжения тоже пришлось остановить: уменьшать его дальше стало невозможно, иначе полезный сигнал просто тонул бы в фоновом шуме.
В конечном счете, стратегия бесконечного уменьшения размеров исчерпала себя. Производительность чипов продолжила расти, но теперь это заслуга новых инженерных решений, а не просто миниатюризации компонентов.
Так законы природы или эмпирические правила?
Кривые масштабирования, которые так превозносит Альтман, — объективная реальность. До сих пор этот инструмент работал безотказно и приносил колоссальную пользу.
Собранные закономерности доказали исследователям: модели будут неизменно улучшаться, стоит лишь предоставить им достаточно данных и вычислительной мощности. Казалось очевидным, что ранние системы не имели фундаментальных ограничений. Они не упирались в архитектурный потолок — им просто не хватало ресурсов для раскрытия потенциала.
Однако важно понимать природу подобных зависимостей: они лишь описывают накопленные данные. Это не строгие математические законы, подобные тем, что используются в аэродинамике. Скорее, перед нами полезные эмпирические правила — такие же, как в проектировании микросхем. А значит, не стоит рассчитывать, что они будут работать вечно.
Правила масштабирования языковых моделей часто оторваны от суровой реальности. Не учитываются ни надвигающийся дефицит качественных данных для обучения, ни трудности, возникающие, когда ИИ сталкивается с принципиально новыми задачами. За кадром остаются и вопросы безопасности, и экономические барьеры — от стоимости дата-центров до пределов пропускной способности электросетей. Никакой закон природы или математическая теорема не дают гарантий, что «масштабирование интеллекта» может продолжаться бесконечно.
Инвестиции в кривые
Пока что кривые масштабирования ИИ выглядят на удивление плавными. Однако с финансовыми показателями история складывается совсем иначе.
Недавно Deutsche Bank выступил с тревожным предупреждением о «дефиците финансирования» в сфере ИИ. Опираясь на оценки Bain Capital, аналитики указали на колоссальный дисбаланс. Наблюдается разрыв между прогнозируемыми доходами и инвестициями в чипы, дата-центры, энергетику. Для поддержания нынешних темпов роста требуются пугающие 800 миллиардов долларов.
В свою очередь, аналитики JP Morgan подсчитали цену успеха. Чтобы получить хотя бы скромную 10-процентную прибыль от запланированного расширения инфраструктуры, всему сектору искусственного интеллекта придется генерировать колоссальную выручку — около 650 миллиардов долларов ежегодно.
Мы все еще пытаемся нащупать законы, управляющие развитием новых технологий. Сценариев два: либо реальность продолжит послушно следовать графику масштабирования, либо в дело вступят жесткие ограничители. Дефицит данных, энергетический голод или банальная неготовность пользователей платить — любое из этих «узких мест» способно радикально изменить расклад.
Альтман делает ставку на то, что законы масштабирования LLM продолжат работать. Если он прав, то безумное наращивание вычислительных мощностей оправдано — ведь результат предсказуем и сулит выгоду.
Однако растущая тревога банков служит холодным напоминанием. Некоторые истории масштабирования могут повторить судьбу моста Такома-Нэрроуз: красивые, устремленные ввысь кривые на бумаге порой скрывают фатальный изъян, который проявится лишь при столкновении с реальностью.
Комментарии (59)

oneastok Автор
17.01.2026 12:27Все ссылки проставлены автором оригинальной статьи. Две из них действительно перестали открываться. Я их скрыл, чтобы не отнимать время читателя. Благодарю за внимательность!
Что касается самого материала, то меня он привлек тем, что как раз об этом же — пределе возможностей нейросетей — недавно размышлял сам. Тема интересна мне — я подумал, что она также будет интересна кому‑то еще.
P.S. Промахнулся слегка. Это комментарий — ответ на замечания выше.

NeriaLab
17.01.2026 12:27Автор так сильно увлёкся ИИ-хайпом, что не заметил, что проблемы описанные в статье касаются только конекционистских архитектур (LLM, CNN, RL, MoE) и частично нейро-символьных систем (где ядром является "нейро"-составляющая), а у других архитектур таких проблем нет, таких как: Symbolic AI (в том числе - когнитивно-символьные (КСС)), Embodied AI, SNN и других.

acc0unt
17.01.2026 12:27Чел, кончай уже ныть про то, какие символьные ИИ крутые. Эта технология себя исчерпала и благополучно сдохла ещё в 90-х, и туда ей и дорога. Пытаться из неё что-то выжимать в 2k26 году - занятие для ретроградов и маразматиков.

vikarti
17.01.2026 12:27А когда то казалось что конекционистских перцептроны (придуманные чуть ли не первыми!) и им подобные - сдохли. Прошли десятки лет, появились мощные и дешевые массивно-параллельные векторно-конвеерные сопроцессоры и технологии по работе с ними (надо ж воду красиво рисовать!), а потом десятка лет не прошло как придумали как это под конекционистские модели задействовать а затем - решили проверить что будет если попробовать обучение того что тогда казалось большими моделями (с сотнями миллионов весов) том что тогда казалось большими данными. И пошло-поехало...
Но - может ж быть еще один прорыв.

NeriaLab
17.01.2026 12:27Сколько существуют коннекционисты и символисты, столько они и "воюют" - этот холивар старше, чем большинство современных языков программирования. В истории "ИИ маятник" постоянно качался, и на каждом изломе даже появлялись свои "перебежчики": Марвин Минский (коннекционизм->символизм), Ян ЛеКун (коннекционизм->JEPA (среднее между тем и тем)), Себастьян Бубек (коннекционизм->символизм) ну и обратно: Терри Виноград (символизм->коннекционизм), Джон Хопфилд (символизм->коннекционизм)

acc0unt
17.01.2026 12:27Может. Но нет ни одной причины ждать этого прорыва от символистов.
Больше шансов что квантовые компьютеры станут чем-то полезным в ближайшие 10 лет и прорыв придёт оттуда.
И я говорю "больше", но этот шанс абсолютно крохотный. Просто у символистов ещё меньше. Символьные подходы зашли в тупик давно и прочно, и масштаб дел не исправляет. Тогда как масштабирование коннекционизма даёт гибкие, мощные и до смешного человекоподобные системы.

NeriaLab
17.01.2026 12:27Вы восторгаетесь мощью масштабирования? Тогда ответьте на простой вопрос: Когда мы увидим боевой самолет под управлением ЛЛМ? Или вы предлагаете пустить вслед за истребителем на буксире мобильный дата-центр мощностью в несколько гигаватт, чтобы ваша "гибкая система" могла в реальном времени отличить помеху от цели? А для эскадрильи самолётов сколько надо создать мобильных дата-центров? И где гарантии того, что при первой же галлюцинации одного самолета они вступят в бой друг с другом? Здесь Вы правы, будет масштабно - взрывы и фейерверки, самолёты из одной эскадрильи уничтожают друг друга
Я так понимаю - это тоже масштабно: "ИИ-кластер xAI Colossus 2 потребляет 1 ГВт мощности — больше, чем Сан-Франциско" (Хабр) - для системы, которая галлюцинирует нужен 1ГВт? И это я еще не упоминал про масштабный рост цен по всему миру на железо

acc0unt
17.01.2026 12:27Зачем истребителю датацентр? LLM работают и локально, на зубилах вроде 4080.
Если нам нужны системы под автомобили или роботехнику, к чему "управление истребителями" ближе всего, то тут вообще радость и прелесть. Передовые ИИ такого типа - гибридные VLA, асимметричные трансформеры - меньше 30B, и при сильном желании упихиваются в современный смартфон.
Датацентры нужны не для запуска ИИ. Датацентры нужны для тренировки следующих поколений ИИ, и запуска ИИ под десятки миллионов пользователей одновременно. Истребитель уже натренирован, и "пользователей" у него очень мало.
Ну и если ты думаешь что какая-то "новая волшебная архитектура" избавит ИИ от галлюцинаций, то ты сильно ошибаешься. Галлюцинации - это проблема не архитектуры, а обучения. И "референсные" мешки с мясом, у которых обучение иное, огибают проблему галлюцинаций далеко не идеально. Фразы вроде "врёт как очевидец" появились не просто так.

NeriaLab
17.01.2026 12:27Сэр, а с чего Вы вдруг заговорили о гибридах? Вы же всегда были "чистым" коннекционистом. Что-то случилось?! Что-то заставило пересмотреть взгляды?
Помимо чистых КСС, я неоднократно говорил, что будущее за нейро-символьными архитектурами, но при одном условии - ядром системы должна являться КСС, а нейросеть в таком союзе - это лишь эффективный "орган чувств" ("глаза" и "уши"), но не центр принятия решений.
Что касаемо галлюцинаций - обучение (RLHF и прочее) может лишь снизить их частоту и "причесать" ответ, но не исключить.
Сравнение с "зубилами 4080" и смартфонами уместно для бытовых чат-ботов, но не для управления истребителем. В программах вроде ACE и ACE-TRUST (DARPA) вычисления вынесены в выделенный специализированный вычислительный контур. Главное преимущество КСС здесь не в объеме памяти под веса, а в скорости логического цикла. Пока нейросеть тратит секунды на вероятностную генерацию токенов, символьное ядро выполняет детерминированный цикл OODA ("наблюдение-ориентация-решение-действие") за милисекунды. В бою на сверхзвуке, любая задержка - это не просто "медленный ответ", это потеря машины

acc0unt
17.01.2026 12:27Под гибридами я имею в виду вещи вроде CNN-backed ViT, DiT, рекуррентных трансформеров (включая HRM), трансформеров со state space компонентами, и прочих вариаций на тему "пришьём идеи из старых архитектур к трансформерам и посмотрим взлетит ли".
Что характерно, часто взлетает. А тем временем есть ли хоть какие-то успехи у символьных подходов в последние годы? Ну, только если считать Claude Code технически нейросимвольной системой.

TimurZhoraev
17.01.2026 12:27Вообще говоря границы стёрты между символьными и коннекторами благодаря впихиванию в окно 8 бит. Фактически, имеем виртуальную машину с 256 командами. Умножение на 0 и 1 это как if-else вполне возможно впихнуть туда конечные автоматы (запоминание контекстного окна) и описание логических схем на уровне LUT той же размерности (вывод и оптимизация), плюс 2 вида фундаментальных нейронов ReLU и логистический на barrel-shifter. Важно ещё как всё это дело обучать. В этом смысле обратное распространение заменяется градиентом более высокого порядка вплоть до табличного на 65536 значений, когда ввиду малой разрядности сразу можно рассчитать веса на пару слоёв вперёд. То есть обучение и прямое распространение... две стороны одной медали и можно одно с другим совместить, этакая сеть Хоупфилда с решением СЛАУ на 256 переменных.

Survei
17.01.2026 12:27Истребители устарели.

NeriaLab
17.01.2026 12:27Дело вовсе не в истребителях, надо смотреть дальше и глубже. Успешное внедрение КСС в авиации - это не про "железо" и не про код, а про валидацию технологии управления в экстремально сложных средах. Это внедрение показывает нам будущее, где КСС постепенно забирают у нейросетей самое важное, оставляя им лишь роль "обслуживающего" сервиса:
Динамическое планирование (Mission Planning) - мы забираем у нейросетей задачу принятия решений в условиях OOD (Out-of-Distribution). В отличие от ЛЛМ, которая "галлюцинирует" план на основе средних данных, КСС на базе Soar или ACT-R строит логически безупречную стратегию, исходя из физических инвариантов и текущих целей. Это применимо везде: от беспилотной логистики до управления умными городами;
Символьное зрение (Symbolic Vision) - истребитель "учит" нас тому, что нейросеть должна перестать быть лишь "глазами" (детектором), а КСС - "мозгом", который интерпретирует сигналы. У коннекционистов больше не будет "монополии" на "понимание" сцены. КСС сама будет знать что перед ней, верифицируя объекты через образы и символы и всё это в реалтайме;
и многое другое.
Истребители - это как самая жёсткая школа, но для ИИ. То, что "выживет" и докажет свою эффективность - "завтра" станет стандартом для гражданской медицины, автономного транспорта, глобальных систем безопасности и других отраслей науки и техники.

Rigidus
17.01.2026 12:27Я интересуюсь символьными системами, и хотел бы попросить ссылок, которые помогли бы восполнить пробелы в этой области. Особенно интересны те, которые позволили бы больше понять как развивались подходы и те, которые объясняют текущее состояние в этой области

NeriaLab
17.01.2026 12:27Герберт Саймон, "Науки об искусственном" (The Sciences of the Artificial) - На русском есть хорошее издание, перевод вполне адекватный. книга о том, как из простых правил рождается сложное поведение;
Аллен Ньюэлл, "Единые теории познания" (Unified Theories of Cognition) - На русском есть старые переводы, но лучше оригинал 1990 года. Она сложная, но переворачивает сознание. Это "библия" для понимания архитектуры разума. Ньюэлл там объясняет, как устроено пространство задач и почему интеллект - это структура;
Джон МакКарти. У него нет ни одной книги, а есть его статьи по теме Formalizing Common Sense. Это база для понимания того, как ИИ должен оперировать логикой мира;
Джон Лэрд, "The Soar Cognitive Architecture". Читать строго на английском, так как терминология очень - "специфическая".
Если английский позволяет, то читайте в оригинале. Термины вроде chunking, production rules, working memory в русском переводе иногда теряют инженерный смысл. Начинайте с Саймона, он заходит легче всего, а потом сразу к Ньюэллу и по списку.

Rigidus
17.01.2026 12:27Спасибо. А какие проекты стоит изучить, из тех что демонстрируют state-of-art сегодня?

NeriaLab
17.01.2026 12:27Обратите на внимание на проект - https://github.com/SoarGroup/rosie-project - Rosie от SoarGroup. В отличие от LLM, Rosie обучается новым задачам через инструкции на естественном языке, сразу встраивая их в свою символьную структуру.
OpenCog Hyperon - Архитектура на базе гиперграфа знаний (AtomSpace). Они представили язык MeTTa, который позволяет объединять нейросети, логический вывод и эволюционные алгоритмы в одной системе.
По SOTA в JEPA от Яна ЛеКуна пока мало информации, проект еще развивается, пока еще исследовательский фронтир (World Models). Проект движется в сторону "машинного здравого смысла" (Common Sense, о котором писал МакКарти) через понимание физики мира, что идеологически очень близко к КСС

gun_dose
17.01.2026 12:27Ну закончится масштабирование, и ладно. ИИ-инструменты можно неслабо совершенствовать даже не меняя модели. И даже если через какой год всё это дело остановится, все эти вайб-кодинги никуда не денутся, и скорее всего останутся с нами навсегда.

TimurZhoraev
17.01.2026 12:27вайбкодинг это просто язык программирования верхнего уровня, доступный человеку в виде разговорной речи, для которого С++/Python/Go/JS/Shell/make/git далее по списку есть ассемблер.

Gromilo
17.01.2026 12:27Меня смущает недетерминированность такого языка программирования. Если обычный компилятор работает не правильно, то это баг и его можно исправить. Если ИИ гонит, то выкручивайся сам, некуда репортить о глюках.

TimurZhoraev
17.01.2026 12:27гонимость ИИ исправляется соответствующей обратной связью парирования глюков. То есть его пытают до тех пор, пока assertion не покажет 0=0 или что всё доводится детерминированными алгоритмами до errors 0 warnings 0. Это не свойство самого ИИ а свойства языка человеческого общения которое подразумевает варианты, вообщем это некоторая эмоциональность в кодовой базе, как реакция Линуса на некоторые предложения по улучшению ядра. А вот о глюках как раз таки можно сообщать самому ИИ, даже в автоматическом режиме, производя дообучение модели. Промпт должен содержать критерии проверки результата, то есть задача описывается декларативно с заданными ограничениями. Если решение в них вписывается - оно получено.

Gromilo
17.01.2026 12:27А есть гарантия, что процесс сходящийся?
Просто у меня есть опыт хождения нейронкой по кругу

TimurZhoraev
17.01.2026 12:27тогда надо разбивать на мелкие сущности и заставлять дела меньшую работу, вмещаемую в контекстное окно. То есть не более 2к строк любого кода с подробным описанием. Вообще говоря разбиение и описание взаимодействия и есть собственно промпт-инженеринг, чтобы исключить циклы при оптимизации или при обратной связи от внешних инструментов (компиляторы, shell и др). Иногда бывает проще интерпретировать вывод и адаптировать для промпта указав диапазон проблемы чем искать точку. В этом смысле это искусство, когда человек в большей мере представляет глобальный минимум, нежели когда ИИ рыскает в локальном, но при этом достаточно быстро достигает общего экстремума если задать верно начальное условие и направление.

Gromilo
17.01.2026 12:27В этом смысле это искусство
Вот эта часть мне не нравится. Сам программирую с курсором, но конечный этап работы - это код, за который я несу ответственность. Код "человекосовместимый".
Есть примеры реп, где код вообще не пишется руками, а целиком генерится по промтам? Для меня утверждение, что "просто язык программирования верхнего уровня" звучит так, что у нас просто есть код, над которым мы ведем итеративную работу, а весь софт создаётся автоматом из репы где нет классического кода.

fivlabor
17.01.2026 12:27И даже если через какой год всё это дело остановится, все эти вайб-кодинги никуда не денутся
Сейчас эти системы работают в убыток. Когда перестанут в них вливать деньги, то вайб-кодинги станут жутко дорогими

gun_dose
17.01.2026 12:27Как только перестанут вливать деньги, начнут оптимизировать издержки. Пусть даже обанкротятся какие-то провайдеры LLM, но появятся другие провайдеры, которые будут делать упор на экономику. Будут делать всякие оптимизации, дистилляции, специализации. Это неизбежно

vitalist84
17.01.2026 12:27Вот интересно, что в электронике работало два экспоненциальных закона - закон о удвоении транзисторов, и закон о снижении потребления на один транзистор. Если бы не было второго закона, то мир бы шел по пути огромных компьютер и очень быстро уперся бы в ограничение и прогресс остановился.
В этом и проблема развития ИИ, там работает один закон и мы быстро увеличиваем мощности для обучения и генерации, тратя на это огромные ресурсы, а профит очень небольшой. Без второго компенсирующего закона до ограничения не далеко.
Выход из этого все таки возможен - это более эффективные модели, чем LLM или принципиально другая техническая база, квантовые компьютеры например.

NeriaLab
17.01.2026 12:27То есть, не решив фундаментальные проблемы коннеционистких подходов, Вы считаете что Вам поможет квантовый компьютер их.. "обойти"?!

TimurZhoraev
17.01.2026 12:27Там вопрос скорее будет сложности обучения - экспоненциальная для классических методов грубо говоря и полиномиальная где нейросеть обучает нейросеть, образно нейросеть обучается датасетам в виде +- оптимальных весов другой сети согласно входным величинам. То есть минуя что-либо она может "предсказать" начальные условия для другой нейросети которые потом доводятся уже классическими методами. Этакая энтропия, уменьшающая энтропию. Квантовые вычисления упираются в декогеренцию, вполне возможно там есть такой же физический предел как и для классических систем, связанный с охлаждением или ещё чем-либо.

vitalist84
17.01.2026 12:27По крайней мере, квантовый компьютер отбросит далеко назад проблему мощности вычислительных ресурсов, а там глядишь и до сингулярности не далеко. Останется проблема с данными еще, но может тоже что-то придумают.

NeriaLab
17.01.2026 12:27Проблемы только будут накапливаться и одна из них галлюцинации, их станет больше, как и других проблем. Если накрыть кучку гуано листиком - это не означает что оно перестанет пахнуть. Проблемы надо решать, а не "прятать" в виде: "А вот квантовый компьютер снимет одну проблему...". Вот только их 15 у коннекционистов

vitalist84
17.01.2026 12:27Галлюцинации решаются через проверку фактов запросом ИИ в интернет или, если это что-то абстрактное, например, придумай стих, через критическую оценку тоже от ИИ. Ну в так ошибка всегда неизбежна при инфиренсе. Это справедливо для любого ИИ. Допустим у вас нейросеть заточена на распознавании кошек или собак, и делает это с точность 99%, но если на вход подать картинку слона, то вероятности могут оказаться 97% собака, 3% кошка, так как слонов не было в обучающей выборке. Вот с текстами и мышлением та же проблема - данных мало, выборки небольшие,а ИИ заточен выдавать какой-то ответ.

NeriaLab
17.01.2026 12:27Вы, наверное, шутите?! Проверка фактов запросом ИИ в интернет? Вы предлагаете лечить галлюцинации галлюцинациями? Это выглядит так: какая-то ЛЛМ "придумала факт" (сгенерировала), никто этот "факт" не проверил, и он ушел в общую массу интернет-шума. А потом ваша вторая ЛЛМ лезет в этот интернет, видит ту самую ошибку и говорит: "Да вот же - официальное подтверждение!".
Давайте посмотрим на эти грабли: в 2023–2024 годах на этом уже погорели юристы в США и Канаде. В громком деле Mata v. Avianca адвокаты подали документы с выдуманными названиями прецедентов, которых никогда не существовало. Позже аналогичный случай произошел в Британской Колумбии в рамках семейного спора. Они совершили ту самую ошибку: они не просто доверились генерации, а попросили чат-бота подтвердить подлинность этих же выдумок, и ЛЛМ предсказуемо ответил: "Да, эти дела реальны". И таких примеров в судебной практике 2025 года становилось только больше и больше, несмотря на развитие технологий.
Тут даже Вангой быть не надо. На Хабре, в течение этого года мы гарантированно увидим новые публикации о том, как в очередных судебных процессах вскрылось использование ЛЛМ, и как ЛЛМ снова "выдумал" несуществующие нормы или детали сделок. И таких статей будет становиться всё больше, потому что интернет стремительно заполняется "самоподтверждающимся" бредом

vitalist84
17.01.2026 12:27Да, есть такая проблема, проверку фактов надо делать опираясь на данные до 2023 года. Как быть с новыми не ясно.

sim31r
17.01.2026 12:27Люди тоже генерировали вымышленную информацию, и умышленно для пропаганды и копируя исторические заблуждения, религиозные фантазии, за тысячи лет до 2023 года.

Rastabram
17.01.2026 12:27Недавно смотрел ролик, что для австралийского правительства за пару сотен тысяч долларов аудиторская компания Deloitte сделала отчет сгенерированный ИИ.. Вскрылось все совершенно случайно: какой-то душный журналист полез читать отчет в несколько сотен страниц и нашел ссылки на несуществующие факты и прочие признаки ИИ..
Честно говоря, стремно, насколько много такого может быть не только в статьях, но и использоваться в высших кругах..

vitalist84
17.01.2026 12:27Ну может быть, с этим борятся, пока альтернативные модели в зачатке, их на горизонте не видно.

NeriaLab
17.01.2026 12:27Давайте скажем честно: 1. Вы ими никогда и не интересовались; 2. маркетологам LLM-компаний можно поставить плюс - они продали обществу идею, что автоматизированные системы - это ИИ. А вот только небольшой список того, где применяются когнитивнор-символьные системы:
Soar - активно используется в программах DARPA (например, ACE). Результаты испытаний по автономному управлению истребителями F-16 показали, что ИИ на базе логики и правил превосходит пилотов-людей в ближнем бою. Сейчас эти наработки ложатся в основу истребителей следующих поколений, где пилот не предусмотрен. Это позволяет самолету выполнять маневры с перегрузками, которые мгновенно убили бы пилота;
ACT-R - десятилетиями используется в NASA и авиации для моделирования действий операторов в критических ситуациях и управления сложными интерфейсами, где цена ошибки - потеря космического аппарата. А также, в образовательных технологиях (Intelligent Tutoring Systems) - эта архитектура десятилетиями используется для создания адаптивных обучающих систем. К 2026 году статистика неумолима: студенты, использующие "тьюторов" на базе ACT-R, показывают результаты значительно выше, чем те, кто пытается учиться с помощью ЛЛМ;
CRAM (Cognitive Robot Abstract Machine) - успешно применяется в высокотехнологичной робототехнике для выполнения сложных манипуляций в быту и на производстве. В отличие от нейросетевых роботов, CRAM понимает семантику действий (почему он это делает), а не просто копирует движения.
Я могу этот список продолжать и продолжать, настолько долго, что у меня быстрее возникнет ограничение по количеству символов в комментарии, чем этот список закончится. Альтернативные методы давно и надежно "захватили" реальный сектор экономики, обороны и науки. Просто об этом не пишут в рекламных буклетах - люди работают над развитием этих систем, а не "размахивают терминами".

vitalist84
17.01.2026 12:27Все правильно, для узкоспециализированной задачи можно за десятилетия создать классную экспертную систему. Но сможет ли это экспертная система для управления F-16 сочинить красивый стишок для детского утренника? Если нет, то грош ей цена. Такие системы сразу ломаются если немного меняются условия на которые они заточены.

NeriaLab
17.01.2026 12:27Вы путаете экспертную систему с когнитивно-символьными системами (КСС). И ехидничаете совершенно не по делу. F-16 - это боевой самолет, и задача управления им требует огромного спектра когнитивных функций у системы и опытного пилота.
Суть в другом. Если условия меняются, узкая экспертная система ломается, но ЛЛМ в этом плане ничем не лучше - она начинает галлюцинировать при малейшем отклонении от обучающей выборки (вспомним Ваших слона и кошку).
КСС же адаптируется через логический вывод и перестроение модели мира. Она не ломается, она мгновенно пересчитывает, не генерирует ошибки (минимальная точность не менее 95%. В медицине и юриспруденции точность должна быть не менее 97%). Все символьные системы, исторически строились как ИИ и они намного ближе к настоящему ИИ, чем любая ЛЛМ.

vitalist84
17.01.2026 12:27Скиньте ссылку что за КСС, и где реально используется.

NeriaLab
17.01.2026 12:27Где реально используются я Вам уже написал выше. А ссылки, так они давно всем известны, но мне не лень продублировать:
Soar (The Soar Cognitive Architecture) Сайт: https://soar.eecs.umich.edu/
ACT-R (Adaptive Control of Thought-Rational) Сайт: https://act-r.psy.cmu.edu/
CRAM (Cognitive Robot Abstract Machine) Сайт: https://www.cram-system.org/
OpenCog Hyperon - Сайт: https://opencog.org/

yvolk
17.01.2026 12:27Если вам нужна система для сочинения "стишков", то систему управления самолётом вы и за грош не купите.
Вопос только, а сколько у вас есть денег на оплату разработки и эксплуатации системы, которая сумеет сочинять устраивающие вас стишки.

vitalist84
17.01.2026 12:27Тут главный вопрос, что мне надо одновременно и стихи сочинять, и подбирать умный фитнес трекер, и составлять план что посмотреть на выходных другом городе и т.д. Сейчас Алиса это все делает для меня бесплатно, ну может когда-то монетизируют и буду платить. Руками такое сложно запрограммировать.
Экспертные системы никуда не денутся, но где там разум, как писали ниже?

NeriaLab
17.01.2026 12:27Экспертных систем (ЭС) почти не осталось. Медицинская DXplain дожила до сегодняшних дней и еще пара других, в разных отраслях. Экспертные системы применяются в играх, чтобы "оживить" торговлю. Им на замену пришли КСС - мощные, быстрые, умные, без "болячек" ЭС и у них, не у всех пока, но уже есть реализованная (бывшая фундаментальная проблема ИИ - "желания и мотивация") и исследователи уже работают над другой фундаментальной проблемой ИИ - "здравый смысл" (Common Sense). Почему ничего из вышеперечисленного никогда не будет в коннкционистких архитектурах - ограничения самих архитектур и нерешенные фундаментальные проблемы
P.S.: Скажите пожалуйста, а Ваша Алиса умеет не галлюцинировать? Яркий пример галлюцинаций - "Две Алисы ругаются" (Youtube)

vitalist84
17.01.2026 12:27Галлюцинации - это развновиднность ошибки, они архитектурно неустранимы из LLM. Но и другие системы тоже ошибаются или не дают ответа, сравнивать надо точность разных моделей. Что там у ваших систем с бенчмарками? Тест Тьюринга проходят? Международные олимпиады по математике решают?

NeriaLab
17.01.2026 12:27Ошибаются (галлюцинируют) ТОЛЬКО коннекционистские архитектуры по самой своей природе. Символьные системы детерминированы. Ошибка в них возможна лишь в двух случаях: если оператор пропустил "грязные" данные в ядро или не проверил логическую ветку при обучении, но это сразу вычисляется, задолго до релиза и обычные пользователи ее даже не увидят. Но это уже уходит в прошлое благодаря продвинутым механизмам самообучения и формальной верификации, что в разы снижает стоимость обучения символьных систем.
Что там у ваших систем с бенчмарками?
Можно, конечно, мериться цифрами, но зачем? Это напоминает мужчин, которые меряются... носами. Их разбуди ночью - они назовут длину и ширину своего носа, вплоть до миллиметра. А другие не меряются - они в этот момент делают новых Буратин и Мальвин, им некогда заниматься ерундой.
Тест Тьюринга проходят?
На 2026 год официально тест Тьюринга не прошла ни одна система, включая ваши ЛЛМ. Зато ToM-тесты (Theory of Mind - понимание состояний, намерений и логики других субъектов) КСС проходят на уровне, недоступном для статистических моделей
Международные олимпиады по математике решают?
Вы до сих пор не понимаете разницу между "создать ИИ" и "навесить ярлык ИИ". Приоткрою вам завесу тайны: у Soar, ACT-R и других систем есть математические модули. Они щелкают любые задачи как орехи, но решать задачи модулем - это... скууушна.
Настоящий ИИ должен научиться "думать как математик". Мы приглашаем специалиста, разбираем конкретную задачу на "атомы" и вводим в ядро новые когнитивные компоненты. После этого математический модуль "выбрасывается на свалку" за ненадобностью и система сама обретает способность - математически рассуждать.

vitalist84
17.01.2026 12:27Ну то есть околунулевае результаты. С какой точность отличают кошку от собаки?

TimurZhoraev
17.01.2026 12:27Главное преимущество коннекторов - отсутствие индексации а переход осуществляется сигнальным способом (умножение). Поправьте если это не так, символьные структуры требуют крайне скверно реализуемые операции сравнения и условного перехода в рамках многопоточных архитектур и требуют индексацию. Если использовать метод переключающих функций то это так или иначе превращается в коннектор. По сути для коннектора имеем лишь ячейки памяти и некий сигнальный процессор пробегающий по весам с умножением с накоплением - это очень быстро. Из плохих операций - это умножение а особенно деление, но оно не часто выполняется даже для матричных операций (нахождение дискриминантов и обратных). Плюс коннектор с ReLU - это по-сути диодно-транзисторная логика на новом витке развития.

Rigidus
17.01.2026 12:27Я бы хотел продолжения этого списка и некоторый ретроспективный обзор развития концепций, стоящих за этими разработками

bolshoy_valenok
17.01.2026 12:27В сознании оьывателя почему-то спутанны понятия интеллект и разум, хотя между ними пропасть. Ии изобрели в 2005 году и засунули в игру fear. Разум не изобретут очень долго, хотябы потому что плохо понимают что это такое (смотри трудная проблема сознания)

vitalist84
17.01.2026 12:27Так может он не нужен, вдруг еще нас поработит? Сейчас LLM практически по всем вопросам и навыкам превосходит человека с пятилетним стажем работы, это уже немало. Постепенно этот уровень будет расти, ну и в статье пишут, что цена этого роста экспонента, поэтому до уровня бог не дойдет в текущей парадигме. Ну и к тому же не обязательно чтобы разум человека и машины описывался одними и теми же категориями, т. к. все равно остается риск, что неразумные LLM оставят без работы миллиард людей.

NeriaLab
17.01.2026 12:27Когда изобрели ИИ? В 2005 году? Сэр, термину ИИ в этом году исполняется 70 лет как и первой ИИ программе - Logic Theorist (логико-символьная архитектура, 1956, А. Ньюэлл, Г. Саймон, К. Шоу)

TimurZhoraev
17.01.2026 12:27Вообще говоря ещё раньше - 1820й год, разностная машина Беббиджа (ну или логическая машина Джевонса, Буль примерно в это же время одноимённой алгеброй занимался). Впервые там использована память для хранения предыдущего состояния и последующего - а это основополагающий принцип мышления - осуществление сравнения (вычитания).

vikarti
17.01.2026 12:27А мне то казалось что недо-ИИ (в виде Эвриско) изобрел Дуглас Леннат в 1976-1982 специально чтобы про нее написали в последней книжке известного еще советского трехтомникика издательства МИР (которая "Компьютер обретает разум"). Леннат правда не угомонился тем что про него написали в этой книжке и начал делать проект Cyc как развитие Eurisko :)

Flux82
17.01.2026 12:27Десятилетиями бурный рост кремниевых чипов опирался на еще одну знаменитую идею масштабирования — закон Мура.
Ну очевидная же чушь, которую только LLM может выдать, наверное. Правильно так: несколько десятилетий развитие кремниевых чипов хорошо аппроксимировалось законом Мура.

TimurZhoraev
17.01.2026 12:27да и закон Мура про удвоение транзисторов на кристалле несколько размылось представлениями о том какой должен быть кристалл, что такое процессор (одно- и многоядерный) плюсом туда же память, которая является его частью а также внешняя так как DRAM идёт по другой технологии. Поэтому в большей мере там предела совершенству нет. А вот тактовая частота упёрлась в потолок ещё лет 20 назад и ходит вокруг да около 2 ГГц, да и вычисления с более высокой частотой уже не когерентные. 3 ГГц это 2.5 см четверти длины волны, а делённое на корень из диэлектрической проницаемости так вообще 1. Пока с левой стороны процессора что-то посчиталось, справа ещё не знают об этом.

contain
17.01.2026 12:27В который раз прошу администрацию Хабра прикручивать аудио к статьям.
По статье че. Ну все иишка уперлась , одбераль и доперлась.Эхкспотенциальный рост невозможен запрещен и вообще не к месту, чипы греться начали итд итп Все читаем только человеческих аффторов и книжки 16 века.
Bardakan
зачем на хабре мусор, сгенеренный в ии да еще и с нерабочими ссылками?