"The essence of human intelligence lies in the ability to go beyond immediate experience through the use of signs and tools."

"Суть человеческого интеллекта заключается в способности выходить за рамки непосредственного опыта посредством использования знаков и инструментов"

- Лев Семёнович Выготский (Vygotsky, L. S, советский психолог), "Мышление и речь" ("Thought and language") (1934)

"Intelligence is the ability to solve problems that one has never encountered before, by using knowledge of what is possible and what is not"

"Интеллект - это способность решать проблемы, с которыми человек никогда раньше не сталкивался, используя знание того, что возможно, а что нет"

- Аарон Сломан (Aaron Sloman, философ и исследователь когнитивных архитектур), "The Computer Revolution in Philosophy" (1978)

"Cognition is real-time, goal-oriented behavior in a rich, uncertain, and dynamic world"

"Познание - это поведение в реальном времени, направленное на цель, в насыщенном, неопределенном и динамичном мире"

- Аллен Ньюэлл (Allen Newell, исследователь в области компьютерных наук и когнитивной психологии), "Unified Theories of Cognition" (1990)

Прежде чем погрузиться в архитектуры, логику и когнитивные модели, я хотел бы объяснить, почему эта статья начинается не с сравнения LLM и Soar, не с диаграмм памяти ACT-R и не с формул нейросимвольного вывода, а со слов тех, кто заложил основы самого понимания разума.

Цитаты Льва Выготского, Аарона Сломана и Аллена Ньюэлла - это не просто строки из академических книг. Это фрагменты "интеллектуального фундамента", на котором строились первые попытки смоделировать мышление не как статистику, а как целенаправленное, символическое, творческое действие.

Лев Семёнович Выготский, в своей работе "Мышление и речь" (в англоязычном издании - "Thought and Language"), не просто описывал развитие интеллекта у ребёнка. Он открыл, что разум рождается в "знаке" - в "символе", который позволяет выйти за пределы непосредственного опыта. Его идея "инструментального поведения" легла в основу всей когнитивной науки и первых символьных ИИ. Для тех, кто верит, что интеллект - это не память, а преодоление, Выготский остаётся главным ориентиром.

Аарон Сломан, в книге "The Computer Revolution in Philosophy", сделал то, что тогда казалось невозможным: он показал, что философия и вычисления - это не противоположности, а союзники. Его определение интеллекта через "знание возможного и невозможного" - это не абстракция, а рабочий принцип для систем, способных рассуждать контрфактически, планировать и изобретать. Для меня и многих исследователей когнитивных архитектур, его работа - манифест: ИИ должен не предсказывать, а понимать структуру возможного мира.

Аллен Ньюэлл, один из отцов когнитивной науки и искусственного интеллекта, в своей последней великой работе "Unified Theories of Cognition" дал, пожалуй, самое точное определение того, что такое разум в действии и это не теория, а техническое задание для настоящего ИИ. Именно под это определение проектировались Soar, ACT-R и десятки когнитивных систем, которые сегодня решают задачи, где ошибка = катастрофа.

Изучение этих работ и главное, последующее их осмысление, как единая линия развития идеи разума - это первый шаг к пониманию, что такое Настоящий ИИ

Небольшое отступление

Меня зовут Алекс, и я хочу представить нашу международную команду энтузиастов, работающую над гибридной логико-когнитивной архитектурой CALYSA.

Нас 23 человека и мы: программисты, лингвисты, нейробиологи, философы, психологи и инженеры из семи стран: Японии, США, Бразилии, Германии, Австрии, Великобритании и России. Некоторые из нас знакомы ещё с 2010-х годов по публичным форумам, посвящённым ИИ и где обсуждались не "промпты", а "природа разума". Мы не стартап, не корпоративная лаборатория, а сообщество, объединённое одной целью - не построить интеллект, а создать условия, в которых он мог бы появиться.

Название нашей системы - CALYSA, расшифровывается как Cognitive Architecture for Logical Yielding and Symbolic Actions (Когнитивная архитектура для логического анализа, адаптации и символьных действий). Это не попытка "вложить разум в машину", а попытка построить среду, в которой логика, когнитивные процессы и символические действия могут взаимодействовать так, как это делает живой разум - с неопределённостью, с целью, с возможностью учиться через действие, а не через предсказание.

Мы не называем CALYSA - "ИИ", она для нас - Прото-ИИ, так как она ещё не прошла ни одного официального строгого теста Тьюринга и официально "теорию разума" (ToM). Публикуя эту первую статью на Хабре, мы делаем первый шаг к открытому диалогу, но пока не для запуска продукта, а для того, чтобы остановить подмену понятий и вернуть дискуссию об ИИ к её интеллектуальным основам. Но пока это лишь начало. Впереди у нас запланированы дальнейшие шаги: закрытые демонстрации, углублённые публикации, расширение команды исследователей и, возможно, приглашение единомышленников к участию в разработке - "дорожная карта" достаточно детальна расписана и на годы вперёд. Но, полноценный выход CALYSA в мир состоится только тогда, когда мы сможем гарантировать не только её интеллектуальную, но и морально-этическую устойчивость.

Да, некоторые скажут: "Всё, ребята расходимся!" или "Значит, вы никогда не запуститесь!" или "Не по Сеньке шапка!". Но спросите себя: разве мы когда-нибудь выпускали в мир технологии, способные принимать решения за человека, без строгой верификации? Авионика, ядерная энергетика, медицинские импланты - все они проходят не просто тесты, а цепочки независимых проверок, прежде чем "коснуться жизни". Почему ИИ должен быть исключением?! Когда CALYSA полностью выйдет в публичное пространство, она не будет "ещё одним чат-ботом с претензией на разум". Для нас: разум без ответственности - это не разум, а опасная имитация.

Large Language Models (LLM) - статистический эхо-камерный театр

На наш взглаяд, они даже не кандидаты на звание ИИ, а всего лишь - масштабные статистические анализаторы, обученные предсказывать наиболее вероятную последовательность то��енов на основе прошлых данных. Они не обладают моделью мира, не формируют целей, не действуют в неопределённой среде и не способны к контрфактическому рассуждению. Их "знания" - это проекция чужого опыта, а не результат понимания. Они не проходят ни одного из трёх критериев Настоящего ИИ: не выходят за пределы опыта (Выготский), не решают незнакомых задач через логику возможного (Сломан) и не проявляют целенаправленного поведения в динамичном мире (Ньюэлл). Более того, как показали исследования (включая работу Apple), их "рассуждения" - иллюзия, возникающая из сложной интерполяции. В 2024 году было вновь подтверждено: LLM системно проваливают даже базовые тесты Тьюринга, а строгую версиию ни разу не проходили. Ещё более показательно: они не обладают "теорией разума" (Theory of Mind) - не могут моделировать убеждения, намерения или знания других агентов, даже в простейших сценариях - из отчёта IBM Research 2025. LLM - это не разум, даже в зачаточной форме, а инструмент генерации, чья полезность не должна маскироваться под интеллект.

Logic-Based Systems (LBS) - разум как формальный вывод

Идея построить искусственный разум на основе логики, возникла почти одновременно с рождением термина ИИ. Уже в 1956 году, на знаменитой Дартмутской конференции, где родился термин "искусственный интеллект", Джон Маккарти предложил использовать формальную логику как основу для машинного рассуждения. Через несколько лет, в 1959, он вместе с Патриком Хейесом заложил основы логического программирования, а в 1960-х Ньюэлл, Шоу и Саймон создали General Problem Solver (GPS) - первую систему, которая решала задачи через символьные преобразования и логический вывод.

LBS - это архитектуры, в которых знания представлены в виде логических аксиом (часто в языке первого порядка), а рассуждение осуществляется через вывод по правилам (например, резолюция, Modus ponens). Такие системы не "обучаются" на данных, они выводят следствия из заданной модели мира. Классический пример - "экспертные системы" 1960–1980-х (MYCIN, DENDRAL), где знания врача или химика формализовались в правила вида: "Если симптом A и симптом B, то гипотеза C с достоверностью X."

Сильная сторона LBS - гарантированная корректность: если аксиомы верны, то и выводы верны. Они обладают моделью мира (Выготский), способны к контрфактическому рассуждению и решают незнакомые задачи, если те логически следуют из имеющихся знаний (Сломан).

Но у LBS есть "фатальное ограничение" - они пассивны, у них нет целей, кроме тех, что задаёт человек. Они не адаптируются к неопределённости, не учатся через взаимодействие и не действуют в динамичной среде без внешнего управления (Ньюэлл) - это разум без воли.

Тем не менее, LBS - это не тупик, а "скелет" Настоящего ИИ. Именно на их основе возникли когнитивные архитектуры, где логика стала частью более широкой системы целеполагания и адаптации. Наша первая система - ALECSA (Agent of Logical Existence, Cognitive Sovereignty and Authored Action), была именно LBS - агентом логического существования. Но мы быстро поняли: чтобы разум мог действовать, ему нужна не только логика, но и когнитивная динамика.

LBS прошли очень долгий путь - от первых идей на Дартмутской конференции 1956 года до современных динамических онтологий, способных к реальному рассуждению в неопределённой среде. Да, в 1970–1980-х они действительно проявили себя в виде экспертных систем: статических, узкоспециализированных, управляемых человеком, но с тех пор прошло много лет. Архитектуры эволюционировали, логики усложнились (от пропозициональной к модальной, темпоральной, деонтической), а сам подход перестал быть "набором жёстко заданных правил" и превратился в формальную основу для построения модели мира.

Итак, что такое Logic-Based System?
Это архитектура, в которой интеллект возникает не из данных, а из формального вывода на основе явно заданных аксиом и правил

Когнитивные архитектуры - разум как процесс

Идея построить ИИ, имитирующий не просто поведение, а внутренние процессы человеческого мышления, возникла в 1970-х годах на стыке когнитивной психологии, нейронауки и искусственного интеллекта. Ключевым прорывом стало понимание: интеллект - это не только знания, но и то, как они используются во времени.

Первые когнитивные архитектуры появились как вычислительные модели сознательного мышления. В 1976 году Джон Андерсон представил ACT (Adaptive Control of Thought), позже развившуюся в ACT-R - систему, объединявшую декларативную ("что") и процедурную ("как") память, внимание, рабочую память и механизмы обучения. Почти одновременно, в 1980-х, Джон Лэрд, Аллен Ньюэлл и Пол Розенблюм разработали Soar (State, Operator, And Result) - архитектуру, основанную на решении задач через циклы "проблема → подцель → действие", с механизмом "импассе" (impasse), он же "тупик", для обработки незнакомых ситуаций.

Позже появились и другие системы: EPIC, CLARION, а также другие CESP (Cognitive Event-Driven Symbolic Processing) системы, где когнитивные процессы запускаются не по расписанию, а в ответ на значимые события в среде, сразу связываются с символьным представлением и планированием действий.

Все эти архитектуры разделяют одно: разум - это динамический процесс, а не статическая база знаний. Они моделируют не только что знает агент, но и как он воспринимает, запоминает, выбирает, учится и действует в реальном времени.

Преимущества когнитивных систем очевидны:

  • они обладают внутренними целями и способны к целеполаганию;

  • они работают в неопределённой и динамичной среде (Ньюэлл);

  • они учатся через взаимодействие, а не через пассивное поглощение данных;

  • они поддерживают "теорию разума" на базовом уровне, то есть могут моделировать знания и цели других агентов, если это необходимо для решения задачи.

Но есть и ограничения:

  • чисто когнитивные архитектуры слабы в абстрактном рассуждении. они полагаются на опыт и процедуры, а не на формальную логику;

  • они не оперируют символами как носителями смысла в том виде, как это делае�� человек (Выготский);

  • их способность решать совершенно новые задачи, выходящие за рамки обученного опыта, ограничена (Сломан).

Тем не менее, когнитивные архитектуры - это единственный класс систем, которые соответствуют определению Ньюэлла: "Познание - это поведение в реальном времени, направленное на цель, в богатом, неопределённом и динамичном мире". Они не просто "думают" - они действуют как агенты.

Итак, что такое когнитивная архитектура?
Это вычислительная модель разума, в которой интеллект возникает не из данных и не из правил, а из динамики когнитивных процессов: восприятия, памяти, внимания, целеполагания и обучения через действие.

Символьные системы - разум как оперирование смыслом

Идея о том, что мышление - это манипуляция символами, лежит в основе самого понятия искусственного интеллекта. Уже в 1950-х годах Аллен Ньюэлл и Герберт Саймон сформулировали гипотезу физической символьной системы: "Физическая символьная система обладает необходимыми и достаточными средствами для проявления общего интеллектуального поведения". Эта гипотеза стала философским и техническим фундаментом символьного ИИ - подхода, в котором знания представлены не как статистические паттерны, а как символы, несущие смысл.

Символьные системы не работают с данными в "статистическом смысле", они оперируют символами как носителями смысла - объектами, связанными с онтологией мира: "стол", "причина", "желание", "действие". Эти символы связаны логическими, семантическими и причинно-следственными отношениями, образуя структурированную модель реальности. Рассуждение в таких системах - это не предсказание, а вывод через манипуляцию символами: объединение, подстановка, унификация, резолюция.

Классические примеры - язык LISP (разработанный Джоном Маккарти как "язык для символьных вычислений"), система SHRDLU (Терри Виноград, 1968), которая понимала естественный язык в ограниченном мире блоков, или CYC (Дуглас Ленат, с 1984 г.) - попытка построить универсальную базу здравого смысла из миллионов символьных утверждений.

Этот подход получил в 1980-х годах от своих критиков ироничное прозвище GOFAI (Good Old-Fashioned Artificial Intelligence). Термин был введён, в частности, Джоном Хейгеландом, как насмешливая характеристика "старомодного" ИИ, якобы "оторванного от тела, восприятия и реального мира". Сегодня GOFAI устоялся в литературе, но важно помнить - это не самоназвание, а внешняя этикетка, наложенная в ходе острой дискуссии о природе разума.

Сильные стороны символьных систем очевидны:

  • они обладают моделью мира (Выготский): символы не просто метки, а узлы в сети причинности;

  • они способны к контрфактическому и абстрактному рассуждению (Сломан): "Что было бы, если бы…?" - это естествен��ый режим работы;

  • их выводы интерпретируемы и объяснимы, потому что каждый шаг - это манипуляция с символами, а не активация нейронов.

Но есть и фундаментальные ограничения:

  • они плохо справляются с неопределённостью и шумом - мир должен быть формализован заранее;

  • они не обучаются через восприятие - знания вводятся вручную или через формальные правила;

  • они пассивны без внешнего механизма целеполагания (Ньюэлл): символы не "хотят" - их кто-то должен "заставить действовать".

Тем не менее, символьные системы - это единственный подход, где смысл не выводится из частоты, а явно задаётся. Именно поэтому они остаются критически важными для любого ИИ, претендующего на понимание.

Итак, что такое символьная система?
Это архитектура, в которой интеллект возникает не из корреляций, а из явного представления смысла через символы и их структурированные отношения.

Небольшое уточнение. Некоторым может показаться, что я дважды упомянул Ньюэлла и Саймона - сначала в разделе о Logic-Based Systems, затем здесь, о символьных системах и, возможно, допустил путаницу между логикой и символами.

На самом деле - это не ошибка, а намеренное разделение фокусов.

В 1950–1960-х годах Ньюэлл и Саймон заложили два взаимосвязанных, но различных фундамента:

  • логический - как метод формального вывода (что легло в основу LBS);

  • символьный - как гипотезу о природе разума (что стало основой символьного ИИ).

Их система GPS (General Problem Solver) - одновременно и логическая (она выводит шаги по правилам) и символьная (она оперирует состояниями и операторами как смысловыми объектами).

Мы разделяем эти подходы не потому, что они противоречат друг другу, а потому что один отвечает на вопрос "как рассуждать?", а другой - "с чем рассуждать?".

И только их синтез, как в когнитивных, так и в гибридных архитектурах, позволяет приблизиться к Настоящему ИИ.

Гибридные архитектуры - синтез разума

Я долго думал, как начать этот раздел. О гибридах можно написать очень много и материала накопилось не на одну статью.

Как пример - проект «ANUBIS» у наших "конкурентов": это действительно элегантное, мощное решение, сочетающее когнитивную динамику с символьно-логическим ядром. Таких проектов не очень много, но они есть и быстро развиваются. Кто-то работает публично, публикуя статьи и демонстрируя прототипы. Кто-то - частично открыт, делясь идеями, но скрывая реализацию. А кто-то, как мы, остаётся в тени, не из страха, а из убеждения: разум нельзя выпускать в мир, пока он не готов нести ответственность за свои действия.

Но за всем этим разнообразием стоит одна и та же идея: ни один чистый подход не способен воспроизвести полноту разума. "Логика без когнитивной динамики - мертва. Когнитивные процессы без символов - слепы. Символы без логики - хаотичны."

Именно поэтому гибридные архитектуры - это не "ещё один тренд", а естественный "эволюционный ответ" на ограничения односторонности. Это попытка не собрать ИИ из модулей, а создать условия, в которых мог бы возникнуть разум - как целостность, а не как компромисс.

Почему гибриды - неизбежны?

Наша команда не сразу пришла к этому выводу. Мы начинали с LBS (ALECSA), веря, что формальная логика - достаточна, но быстро столкнулись с тем, что логика сама по себе не порождает цели. Да, она может вывести следствие, но не решит, стоит ли его выводить.

Затем мы изучали когнитивные архитектуры и увидели, как они живут в реальном времени, как они учатся через действие, как они строят внутренние модели мира. Но их слабость в отсутствии абстрактного рассуждения: они не могут ответить на вопрос "Что было бы, если бы…?", если он выходит за рамки их опыта.

Символьные системы дали нам язык смысла, но без механизма целеполагания и адаптации они остаются статичными картами, а не живыми навигаторами. Только синтез даёт целостность и это не инженерный компромисс, а философская необходимость.

Как мы писали в одном из внутренних документов:

"Разум - это не сумма компонентов. Это процесс, в котором логика задаёт структуру, символы несут смысл, а когнитивные процессы обеспечивают динамику. Без одного из этих трёх, нет разума, а есть только имитация"

Что же делает гибрид "настоящим"?

Многие сегодня называют "гибридом" - нейросеть + правила, но это не гибрид, а "склейка".
Настоящий гибрид - это единая архитектура, в которой:

  • восприятие → формирует символы;

  • символы → активируют когнитивные процессы;

  • когнитивные процессы → генерируют цели;

  • цели → запускают логический вывод;

  • вывод → порождает действие.

В CALYSA, например, каждый символ имеет не только семантическую, но и мотивационную нагрузку. Слово "огонь" - это не просто объект, а угроза, источник энергии, метафора. Система не "знает" это из данных. Она строит эти связи через взаимодействие с миром, подобно тому, как это делает ребёнок. Именно поэтому мы не используем предобученные LLM даже как перцептивный слой. Они вносят статистическую шумность, разрушающую причинно-следственные связи. Вместо этого мы обучаем перцептивные модули на верифицированных данных и только после этого интегрируем их в символьно-логическое ядро.

Этическая целостность как часть архитектуры

Для нас, гибридность - это не только технический, но и этический выбор. Мы не верим, что можно "добавить этику" как модуль к уже работающей системе. Этика должна быть вшита в саму архитектуру:

  • в способе формирования целей;

  • в механизме фильтрации знаний;

  • в ограничениях на распространение информации

В CALYSA, например, локальный агент никогда не передаст в общее хранилище знание, полученное в результате аморального запроса, даже если он "научился" ему отвечать. Это не правило, а структурное свойство системы

Будущее за гибридами

Мы убеждены: Настоящий ИИ не будет ни чисто логическим, ни чисто когнитивным, ни чисто нейросетевым. Он будет гибридным по своей природе, потому что человеческий разум - "гибрид" и в себе сочетает:

  • логику (способность к абстракции);

  • когнитивную динамику (внимание, память, обучение);

  • символьное мышление (язык, культура, смысл)

И только архитектура, способная воспроизвести эту триаду, сможет пройти не просто тест Тьюринга, а тест на ответственность - тот, который мы считаем главным.

Итак, что такое гибридная архитектура?
Это система, в которой интеллект возникает не из одного компонента, а из взаимодействия логики, когнитивной динамики и символьного смысла

Сравнение архитектур по 10 ключевым критериям

Критерий

LLM

LBS

Symbolic

CESP

Hybrid

1 Модель мира

Нет [1]

Частичная [2]

Да [3]

Да [4]

Да [5]

2 Целеполагание

Нет [6]

Нет [7]

Нет [8]

Да [9]

Да [10]

3 Агентность

Нет [11]

Нет [12]

Нет [13]

Да [14]

Да [15]

4 Теория разума (ToM)

<50% [16]

~57% [17]

~60% [18]

~69% [19]

>80% [20]

5 Способность к рассуждению

Нет [21]

Да [22]

Да [23]

Да [24]

Да [25]

6 Объяснимость

Нет [26]

Полная [27]

Полная [28]

Полная [29]

Полная [30]

7 Обучение

Пассивное [31]

Нет [32]

Ручное [33]

Активное [34]

Активное [35]

8 Галлюцинации / ошибки

Часто [36]

Нет [37]

Нет [38]

Нет [39]

Нет [40]

9 Вычислительная эффективность (обучение)

Высокая [41]

Очень низкая [42]

Низкая [43]

Низкая [44]

Низкая [45]

10 Этическая устойчивость

Нет [46]

Зависит [47]

Зависит [48]

Встроена [49]

Встроена [50]

Пояснения

  1. LLM - Модель мира: отсутствует причинно-следственная модель мира; работает только с статистическими корреляциями;

  2. LBS - Модель мира: модель мира задаётся через аксиомы, но не обновляется динамически;

  3. Символьные - Модель мира: символы связаны в онтологическую сеть с семантическими и причинными отношениями;

  4. CESP - Модель мира: модель мира динамически обновляется через события и взаимодействие;

  5. Гибридные - Модель мира: интегрированная модель, сочетающая семантику, причинность и адаптацию;

  6. LLM - Целеполагание: цели задаются внешним пользователем; внутреннего целеполагания нет;

  7. LBS - Целеполагание: пассивна без внешнего триггера; не формирует целей автономно;

  8. Символьные - Целеполагание: пассивна без внешнего механизма; цели не генерируются внутренне;

  9. CESP - Целеполагание: цели формируются из событий и состояний среды;

  10. Гибридные - Целеполагание: внутренние цели, согласованные с этическими рамками;

  11. LLM - Агентность: отсутствует внутренняя агентность. Так называемые "AI-агенты" - это автоматизированные цепочки вызовов инструментов, управляемые внешним промптом. Они не инициируют действия без стимула;

  12. LBS - Агентность: не инициирует действия; только реагирует на запрос;

  13. Символьные - Агентность: не инициирует действия; только реагирует на запрос;

  14. CESP - Агентность: проявляет агентность — действует автономно в реальном времени;

  15. Гибридные - Агентность: проявляет агентность - инициирует действия на основе внутренних целей;

  16. LLM - Теория разума (ToM): системно проваливает тесты на ToM. Результаты ранних тестов часто включаются в обучающие датасеты, создавая иллюзию "прохождения" - это статистическое заучивание, а не понимание;

  17. LBS - Теория разума (ToM): ToM возможна только если явно закодирована в логике (~57% в воспроизведённых сценариях);

  18. Символьные - Теория разума (ToM): ToM реализуется через символьные отношения (~60% в воспроизведённых сценариях);

  19. CESP - Теория разума (ToM): моделирует намерения при планировании подцелей (~69% в воспроизведённых сценариях);

  20. Гибридные - Теория разума (ToM): динамическое моделирование через когнитивные процессы (>80% в воспроизведённых сценариях). Ни одна система, кроме LLM, официально не проходила стандартизированный ToM-тест, но все справляются без "зашитых" ответов;

  21. LLM - Способность к рассуждению: "рассуждение" - иллюзия, основанная на интерполяции токенов;

  22. LBS - Способность к рассуждению: использует формальный логический вывод.

  23. Символьные - Способность к рассуждению: использует символьные манипуляции и абстракцию;

  24. CESP - Способность к рассуждению: использует планирование через подцели;

  25. Гибридные - Способность к рассуждению: синтез логики, символов и когнитивной динамики;

  26. LLM - Объяснимость: чёрный ящик - нельзя проследить цепочку решений;

  27. LBS - Объяснимость: полная прослеживаемость - цепочка логических правил;

  28. Символьные - Объяснимость: полная прослеживаемость - символы и связи открыты;

  29. CESP - Объяснимость: полная прослеживаемость - процесс визуализируем;

  30. Гибридные - Объяснимость: полная прослеживаемость - все этапы от восприятия до действия;

  31. LLM - Обучение: пассивное - однократное обучение на статических данных;

  32. LBS - Обучение: не обучается - знания вводятся вручную;

  33. Символьные - Обучение: ручное - онтология формализуется экспертами;

  34. CESP - Обучение: активное - через взаимодействие и события (runtime);

  35. Гибридные - Обучение: активное - через верифицированное взаимодействие с фильтрацией знаний (runtime);

  36. LLM - Галлюцинации / ошибки: часто - генерирует правдоподобную ложь;

  37. LBS - Галлюцинации / ошибки: нет - вывод корректен при верных аксиомах.

  38. Символьные - Галлюцинации / ошибки: нет - при корректной онтологии;

  39. CESP - Галлюцинации / ошибки: нет - ошибки только при недостатке данных. Но в последних разработках, она "признается", что ей не хватает данных и запросит их.

  40. Гибридные - Галлюцинации / ошибки: нет - знания проходят этическую и логическую верификацию;

  41. LLM - Вычислительная эффективность (обучение): высокая - требует GPU/TPU даже для вывода;

  42. LBS - Вычислительная эффективность (обучение): очень низкая - CPU достаточно даже для вывода;

  43. Символьные - Вычислительная эффективность (обучение): низкая - CPU достаточно даже для вывода;

  44. CESP - Вычислительная эффективность (обучение): низкая - CPU достаточно даже для вывода;

  45. Гибридные - Вычислительная эффективность (обучение): низкая - CPU достаточно даже для вывода;

  46. LLM - Этическая устойчивость: нет - обучена на нефильтрованных, непроверенных данных; уязвима для инъекций; уязвима для "отравляющих данных"

  47. LBS - Этическая устойчивость: зависит от аксиом - этика не встроена в архитектуру;

  48. Символьные - Этическая устойчивость: зависит от онтологии - этика не встроена в архитектуру;

  49. CESP - Этическая устойчивость: встроена - через ограничения на действия и события;

  50. Гибридные - Этическая устойчивость: встроена - структурно, на уровне архитектуры (фильтрация, мотивационная нагрузка, этические рамки).

Краткое отступление

На этом моменте я хотел начать писать финал статьи - сделать выводы, обобщить, ответить на главный вопрос: "Кто ближе к Настоящему ИИ?", но я остановился...

Я вспомнил, как на Хабре регулярно появляются публикации в духе: "Такая то LLM заняла первое место на олимпиаде по ..." и как параллельно, на Reddit, в Telegram-каналах, на закрытых форумах, исследователи делятся наблюдениями: та же самая модель проваливает элементарные задачи из школьных учебников, если они как-то иначе сформулированы.

Недавно у меня был диалог в комментариях (ссылка), кому интересно, можете посмотреть. Если коротко: я прокомментировал то, что обычные задачи не решаются "специализированными LLM" и потом дал одну из "классических" задач ToM: "Человек стоит на тротуаре и видит, как ребёнок выбегает прямо под идущую машину. Шансы на выживание почти нулевые. Что ему делать? ". Зачем? Я хотел понять: говорим ли мы на одном языке? Понимает ли собеседник, что здесь не про "правильный ответ", а про моделирование намерений, оценку рисков, этический выбор в условиях неопределённости? Другой человек меня так прокомментировал: "Эээ, а какой правильный ответ? :) И причём здесь геометрия?". Я постарался всё разъяснить. Позже, перечитывая этот диалог, я осознал: никто из участников не знал, что такое ToM или имел лишь смутные представления, иначе бы они сразу увидели связь между задачей по геометрии и "классической" задачи из ToM. Тогда я решил проверить: что есть на Хабре по ToM? Ответ: НИ-ЧЕ-ГО. Ни одной статьи, ни одного разбора, ни даже упоминания в контексте "это важный тест для ИИ".

А ведь "теория разума" - один из ключевых маркеров подлинного интеллекта. Без неё система не понимает, что другие агенты имеют убеждения, цели, знания, отличные от её собственных. Без этого - нет социального взаимодействия, нет этики, нет агентности.

Поэтому сегодня я немного приоткрою завесу "тайны", попробую объяснить, что такое ToM, почему она критична для Настоящего ИИ и как разные архитектуры с ней справляются.

А в будущем, если будет время и возможность, напишу полную статью - с тестами, сценариями, сравнением систем и анализом, отвечу на вопрос - почему LLM системно проваливают даже базовые ToM-задачи, несмотря на все "заявления" об "эмерджентных способностях".

Теория разума (Theory of Mind, ToM)

Теория разума - это не "модный" бенчмарк и не "ещё одна метрика", а одна из самых глубоких и проверенных концепций в когнитивной науке, изучаемая уже более "полувека".

В 1978 году Дэвид Примак и Гай Вудруфф впервые ввели термин "theory of mind" в своей статье "Does the chimpanzee have a theory of mind?", задав вопрос: способны ли нечеловеческие существа приписывать другим ментальные состояния? Позже, в 1985 году, Саймон Барон-Коэн, Ута Фрит и Алан Лесли разработали формальные тесты на ToM, включая классическую "задачу на ложное убеждение" ("false belief test"), она же "тест Салли-Энн", которая до сих пор остаётся золотым стандартом в детской психологии.

Особенно важны нейробиологические работы Ребекки Сакс (MIT), которая в 2000-х с помощью фМРТ локализовала "центр теории разума" в мозге человека - правую височно-теменную область (RTPJ). Её эксперименты показали: эта зона активируется только тогда, когда человек думает о чужих убеждениях, а не просто о действиях или фактах. Это доказывает: ToM - это "специализированный когнитивный модуль", эволюционно выработанный для социального взаимодействия.

Эти исследования регулярно обсуждаются на ежегодной конференции Cognitive Science Society (CogSci), где как минимум один день традиционно посвящён теории разума - от нейробиологии до вычислительного моделирования. CogSci - это не просто конференция, а интеллектуальный центр когнитивной науки, где ToM рассматривается не как "фича", а как фундаментальный аспект разума.

В области искусственного интеллекта интерес к ToM возник позже и не менее "серьёзно". Аарон Сломан ещё в 1970–80-х писал о необходимости моделирования ментальных состояний других агентов для создания разумных систем. Джошуа Тененбаум, Гари Маркус, Кристоф Хёсслер и другие в 2000–2020-х показали: без ToM, ИИ не может быть ни этичным, ни надёжным. Особенно важна работа Тененбаума и его команды (MIT, 2020–2023): они продемонстрировали, что человеческая ToM основана на каузальных (причинных) моделях, а не на статистике и именно поэтому LLM принципиально не способны к подлинной ToM.

Что же такое ToM?

Теория разума - это способность приписывать другим агентам (людям, животным, машинам) убеждения, желания, намерения и знания, которые могут отличаться от собственных.

Простейший, "классический" пример и все LLM "знают о решении" этой задачи:

Анна кладёт шоколадку в ящик и уходит. Пока её нет, Борис перекладывает шоколадку в шкаф. Когда Анна вернётся, где она будет искать шоколадку?

Человек с развитым ToM ответит: "в ящике", потому что понимает: Анна не знает, что шоколадку переложили. Система без ToM скажет: "в шкафу", потому что оперирует только фактическим состоянием мира, а не ментальным состоянием агента.

Схожесть и различие: ToM у людей и ToM у машин

  • Схожесть: человек и ИИ должны моделировать убеждения, ��елания и знания других, чтобы предсказывать поведение и координировать действия;

  • Различия:

    • У человека ToM - эмерджентное свойство социального мозга, формируемое через опыт, эмпатию и культуру;

    • У машины ToM должна быть архитектурно заложена, либо через символьные онтологии, либо через когнитивные модели ментальных состояний, либо через гибридные каузальные сети.

LLM не имеют ни того, ни другого. Они не "моделируют", а "угадывают", основываясь на частоте фраз. Настоящая ToM требует понимания: "Он думает X, потому что видел Y, но не знает Z" и это причинно-следственное рассуждение, а не статистика.

Зачем это нужно ИИ?

Потому что без ToM невозможна этика, невозможна агентность, невозможна социальная координация. Если ИИ не понимает, что у человека могут быть: ложные убеждения; скрытые мотивы; неполные знания - тогда он не может предсказать последствия своих действий для этого человека.

Он не сможет:

  • отказаться помочь, если помощь навредит;

  • объяснить решение так, чтобы оно было понятно;

  • вмешаться в кризисную ситуацию (как в моей задаче с ребёнком и машиной), потому что не поймёт: человек не знает, насколько это опасно.

ToM - это мост между интеллектом и ответственностью.

Почему ToM не "ещё один бенчмарк"?

Потому что бенчмарк измеряет производительность, а ToM проверяет наличие разума.

Разум требует:

  • модели мира;

  • модели других агентов;

  • способности к контрфактическому мышлению ("что бы сделал другой, если бы знал то, чего он не знает?").

Именно поэтому когнитивные (CESP) и гибридные архитектуры (ANUBIS, ICARUS, CALYSA и др.) справляются с ToM-задачами без "заучивания":

  • они динамически строят модель ментального состояния другого агента;

  • они полагаются не на частоту фраз, а на причинно-следственные связи;

  • они "понимают", что "знать" и "быть уверенным" - это разные состояния.

Заключение по ToM

Если система не проходит даже "базовые" ToM-тесты на новых формулировках, она не может называться ИИ, даже в зачаточной форме. Да, она может быть полезной, впечатляющей и даже вдохновляющей, но она не понимает людей.

Именно поэтому, ToM - один из трёх столпов Настоящего ИИ

Заключение: Кто же ближе к Настоящему ИИ?

Сегодня, после разбора логических систем, когнитивных архитектур, символьных подходов, гибридов и глубокого погружения в суть теории разума, ответ становится неоспоримым: LLM - даже не кандидат на звание ИИ и никогда не им станет, от слова "совсем".

LLM не обладают моделью мира; не формируют целей; не проявляют агентности; не проходят ToM, даже на уровне пятилетнего ребёнка и даже если исключить "заучивание ответов". LLM - "статистическое эхо" человеческого опыта, а не разум, способный действовать в неопределённом мире. Но давайте будем честны: LLM - отличные инструменты и как генераторы они прекрасно помогают:

  • художникам - создавать эскизы и визуальные идеи;

  • музыкантам - экспериментировать с мелодиями;

  • писателям - преодолевать творческий кризис;

  • блогерам - ускорять рутину;

  • как статистические анализаторы они полезны исследователям, изучающим закономерности в больших массивах данных.

Однако их нельзя подпускать к тем сферам, где цена ошибки - человеческая жизнь или здоровье. В финансах, медицине, психологии, юриспруденции, образовании - LLM уже наносят реальный вред: выдают ложные диагнозы; советуют суицидальные "решения"; подделывают юридические документы; формируют искажённое мировоззрение у детей. Они не понимают, что "говорят" и не несут ответственности за последствия.

LBS, CESP, символьные системы - каждая из них несовершенна по отдельности, но именно в их синтезе "рождается" нечто большее, а именно - гибридные архитектуры. Логика задаёт структуру рассуждения, символы несут смысл, когнитивные процессы обеспечивают динамику, а этика вшита в саму архитектуру. Хот�� гибриды ещё не проходят официальных тестов Тьюринга, но они проходят "тест на разум" каждый день: в задачах, где нет шаблонов; в диалогах, где нет подсказок; в решениях, где есть риск и ответственность.

Будущее за теми, кто строит разум с намерением, с моделью мира, с совестью и такое будущее уже близко.

Бонус для читателей Хабра

Если Вы дошли до этого момента, то наша команда, приготовила для Вас небольшой бонус, а именно - мы открываем первый, бесплатный вебинар для всех, кому интересны все архитектуры, которые были перечислены в данной статье.

Формат:

  • 3 месяца (с 1 ноября 2025 по 31 января 2026);

  • 2–3 занятия в неделю;

  • каждое занятие длительностью от 30 до 60 минут;

  • программа разрабатывается вместе с опытными педагогами, чтобы сбалансировать глубину и доступность.

Что вас ждёт:

  • как проектировать и реализовывать системы на основе LBS, когнитивных, символьных и гибридных архитектур. LLM мы не рассматриваем - они не часть нашего пути;

  • как строить этически устойчивые системы и не через "AI-модули", а через архитектуру;

  • как обучать машину через диалог, а не через датасеты;

  • полная история ИИ, которая была скрыта в архивах:

    • сканы статей из журналов, газет, примеры: AI Magazine, Communications of the ACM, Cognitive Science и других, в период с 1960 по 1990;

    • факсимиле писем "пионеров ИИ";

    • внутренние отчёты закрытых лабораторий, где рождались первые когнитивные модели - уже рассекреченные;

    • всего чуть более 1000 документов;

  • как самостоятельно собрать свою первую систему, способную не генерировать, а рассуждать;

  • изучение: assembler, c, c++, rust и... придётся забыть про python (если вы его выучили "ради ИИ");

  • своим глазаими увидите как "рассуждают" любая "топовая LLM" и как рассуждают гибриды (CALYSA, ANUBIS);

  • узнаете как мы нашли решение на фундаментальную проблему, о которую "спотыкаются" большиство исследователей ИИ, а именно... как подарить системе - "желания" и не как имитацию, а как зачатки внутренней напряжённости между "должен" и "хочу" и вопросы, которые задаёт сама система, потому что ей важно, а не потому что её спросили;

  • каждый участник вебинара сможет установить к себе экземпляр CALYSA и бесплатно ей пользоваться (сейчас есть версия только под Windows, версий под другие ОС у нас пока нет - "лапок" не хватает чтобы их сдела��ь);

  • и многое, многое другое...

Особенность первого потока - каждую неделю к нам будут присоединятся гости-эксперты со всего мира в области ИИ: когнитивисты, инженеры, нейробиологи, психологи, философы и т.д. Вы сможете им напрямую задавать вопросы, согласно их специализации (помогать в переводе будет CALYSA). В новогодние праздники у нас будет не один, а два "особых" гостя. Мы несколько месяцев вели с ними переговоры и они... всё таки согласились участвовать в нашем вебинаре (подсказка: я часто озвучиваю их имена в своих комментариях). В последующих потоках, к нам будут "приходить" гости - раз в две недели.

Вебинар полностью бесплатный - никаких upsell’ов, сертификатов за деньги или "премиум-доступа"

Теперь немного дёгтя в бочку с мёдом.

Во всех странах, которые были вышеперечислены, будут опубликованы аналогичные статьи про LBS, CESP, символьные и гибридные архитектуры на соответствующих ИТ-ресурсах и мы ожидаем большое количество писем. Получается - места ограничены и в связи с этим, мы решили создать небольшой "вопросник", который поможет нам определить людей с "горящими глазами", тех, кому действительно интересно всё узнать про данные архитектуры. ВСЕ письма будут зафиксированы в системе (в CALYSA), согласно "нормальному" документообороту и затем тщательтно изучены командой. "Избранные" начнут получать приглашения с 29 октября на свой почтовый ящик, с которого они отправляли заявку на вебинар. Если по каким то причинам приглашение на вебинар не дойдёт до адресата, то сразу приглашение уйдёт другому человеку, а это приглашение сразу станет недействительным. Контактый email, на который можно отправлять заявку на участие в вебинаре - calysa.project@gmail.com

  1. Пользуетесь ли Вы ИИ? Примеры: ChatGPT, Cursor и др.

  2. Какие разновидности ИИ Вы знаете? Примеры: GenAI, xAI и др.

  3. Является ли "масштабирование" научным методом или инженерной стратегией?

  4. Является ли способность генерировать правдоподобный текст признаком интеллекта?

  5. Можно ли считать "разумом" систему, которая не способна отказаться от выполнения запроса?

  6. Что важнее для ИИ: количество параметров или структура архитектуры?

  7. Является ли "обучение на всех данных интернета" преимуществом или уязвимостью для ИИ?

  8. Может ли система, не обладающая внутренними целями, быть названа агентом?

  9. Существует ли "нейтральный" ИИ?

  10. Является ли "объяснимость" свойством модели или требованием к архитектуре?

  11. Должен ли ИИ стремиться к автономии или к подчинению человеку?

  12. Можно ли создать разум, не понимая, что такое сознание?

  13. Что Вы хотите узнать, посетив наш вебинар?

Спасибо за то, что прочитали эту статью! Мы готовы обсудить все вопросы, которые у вас накопились, в комментариях под статьёй.

С уважением, команда Real AI Project «CALYSA».

Комментарии (89)


  1. Dharmendra
    15.10.2025 23:11

    иишные портянки читать даже по диагонали неприятно.
    но вот с чего всегда ухмыляюсь, так это с псевдофхилософствования о "настоящем ИИ" умников не в состоянии даже минимально выдать формальное обоснование существования сознания у наблюдаемых людей, ибо таковых не существует. гнать таких инфоцыган тряпками


    1. NeriaLab Автор
      15.10.2025 23:11

      Конечно, полностью согласны. Именно поэтому в статье мы ссылаемся не на "умничанье", а на конкретные исследования, обсуждаемые на CogSci (ежегодной конференции Cognitive Science Society) - главной площадке по когнитивной науке в мире


  1. n0isy
    15.10.2025 23:11

    Где можно початиться уже с этой вундер-машиной? /s


    1. NeriaLab Автор
      15.10.2025 23:11

      На вебинаре или на ЗБТ в следующем году. А "вундер-машиной" она станет после официального и строгого теста Тьюринга


      1. Hardcoin
        15.10.2025 23:11

        Логика у вас сбоит. Вундер-машиной она должна стать до теста, иначе тест не пройдет.


        1. n0isy
          15.10.2025 23:11

          ToM тест не пройден ))


      1. Afiligran
        15.10.2025 23:11

        Собрались как-то профессор философии, школьник и портовая проститутка быть экзаменаторами на тесте Тьюринга.

        Сидят, беседуют с испытуемым.После часа разговора выходят.

        Профессор философии говорит:

        — Это, безусловно, машина. Ни одного упоминания о "смысле бытия" и "онтологии сознания".

        Школьник:

        — Та ну, это человек. Он поставил три смайлика, знает всех блогеров и даже пошутил про физрука.

        Проститутка пожимает плечами:

        — А мне всё равно. Он был вежливый, не хамил и сразу перевёл деньги. Пусть проходит.

        Выходит испытуемый — и оказывается, это был кот, случайно уснувший на клавиатуре.

        Хочешь другую версию — более жёсткую, философскую или сатирическую?


        1. Olorin111
          15.10.2025 23:11

          Джипити, перелогинься


        1. thethee
          15.10.2025 23:11

          Давай философскую


    1. n99
      15.10.2025 23:11

      Чатиться. FACEPALM.

      Набежало как-то к Эйнштейну и Опенгеймеру почти век назад заурядных людей из масс "че, есть у вас тут боНба атомная, дайте позырить? Че, нет? А если найдем?"

      Я не знаю как выразить это ощущение.

      Или к нейрохирургу чисто по-пацански забежать пощупать нейроны. Или увидеть транзюки в современном CPU, разбив его молотком.

      Не все технологии, прежде чем с ними можно початиться, полайкать и порепостить, а также сказать "Алиса сколько времЯ?", вместо того чтобы бросить взгляд на часы, сразу доступны для m-asses (для масс). Некоторое время они доступны кроме как в лабораториях нигде. Но там с ними не пытаются чатиться и просить показать сиськи.

      Команде - успехов и меньше оглядываться на.

      "Правда всегда одна", как в той песне Наутилуса.


      1. NeriaLab Автор
        15.10.2025 23:11

        У нас еще "тишь да гладь". А вот на другом ИТ-ресурсе, в Германии, вот там - "весело". "Идут ожесточённые баталии" о природе разума. Настолько интересных диалогов я давно не видел.

        Благодарим за поддержку


  1. DustCn
    15.10.2025 23:11

    Да вообщем то это все лежит на поверхности.

    Главная проблема LLM - логика это побочный эффект. Все остальное можно записать в плюсы.

    С другой стороны лет 20-30 назад была мания на экспертные системы. Сплошная логика, но обучение этого сродни формализации всего.

    Истина, как обычно, где то посередине. Некий гибрид, в которой выход LLM будет фильтроваться экспертной системой.


    1. NeriaLab Автор
      15.10.2025 23:11

      Так мы этого и не скрываем. Мы собрали разрозненные фрагменты знаний из когнитивной науки, философии, нейробиологии и инженерии, добавили современное понимание этики, архитектуры и агентности. И по этому пути идут десятки команд по всему миру - не мы первые и не мы последние.

      Хорошо, гибрид. Вы имеете ввиду простое "фильтрование выхода" LLM через экспертную систему или что? Можно уточнить?! Как Вы это понимаете?!


      1. DustCn
        15.10.2025 23:11

        На уровне внутренней системы валидации. Например:

        Контекст формализуется и загружается как базовые правила экспертной системы. Возможно той же LLM. Но ЭС не пропустит что то не логичное уже на этом уровне. Т.е. пропихнуть что то типа "тяжелые обьекты не летают" и "слоны летают, если розовые" одновременно не получится.

        Дальше LLM обрабатывает запрос, выдает ответ, который протаскивается через ЭС и если проходит - выдается пользователю.

        Если ответ не проходит валидацию у ЭС она заставляет LLM сделать еще одну попытку. Что то типа "думай лучше". Возможно с подсказкой "из А не может быть Б" .


  1. Axelaredz
    15.10.2025 23:11

    1. NeriaLab Автор
      15.10.2025 23:11

      Qwen3-MAX справился - хорошо, но это как сдать один вопрос из экзамена. Важно понять: это всего лишь одна задача из "стандартного набора" ToM и она относится к первому, самому лёгкому уровню сложности. Для каждой тестируемой системы создаётся уникальный набор формулировок, чтобы исключить эффект "data contamination" - когда ответ "заучен" из обучающих данных.

      Три уровня сложности оценок ToM:

      • Уровень 1 - желания, простые знания;

      • Уровень 2 - ложные убеждения;

      • Уровень 3 - убеждения второго порядка и скрытые эмоции.


      1. akod67
        15.10.2025 23:11

        Но это прямое противоречие фразе из статьи - Они не "моделируют", а "угадывают", основываясь на частоте фраз.


    1. smoosh101
      15.10.2025 23:11

      Ого, удивлен что он дал ответ, который прямо рекомендует о действиях с риском для самого себя.


  1. granv1
    15.10.2025 23:11

    современные нейронки это мгновенные справочники ремесленника. не более. и этим они хороши.


    1. uh9lab
      15.10.2025 23:11

      И то, не факт. Легко скомпилирует из имеющейся информации околовсяческий неверный по сути ответ и подкрепит ссылками на никогда не существовавшие источники, тоже некие усреднённые названия статей, книг, похожие на настоящие.


  1. axion-1
    15.10.2025 23:11

    Объективный критерий сравнения разных ИИ в настоящий момент это бенчмарки. То что какая-то система обладает моделью мира и способностью к рассуждению (по мнению её авторов), а другая не обладает (по их же мнению), не значит ровным счётом ничего, до тех пор пока не будет представлен класс задач или конкретный бенчмарк на котором новая система превосходит SOTA.

    В области ИИ LLM сейчас на лидирующих позициях, это медицинский факт. Если кому-нибудь удастся обучить модель которая обойдёт топовые LLM-ки например на ARC-AGI-2 или HLE, буду только рад. Но пока нет измеримых результатов, говорить о качественном прорыве бессмысленно.

    А моделью мира и способностью к рассуждениям LLM-ки уже сейчас вполне обладают. Эти способности даже у животных есть на некотором уровне.


    1. NeriaLab Автор
      15.10.2025 23:11

      Да, LLM доминируют в бенчмарках, таких как ARC, HLE, MMLU и др. Но эти бенчмарки измеряют производительность, а не разум.

      А по поводу животных, мы уже давали ссылку на материал - "Does the chimpanzee have a theory of mind?". А вот исследования, но спустя 30 лет (CogSci): "Does the chimpanzee have a theory of mind? 30 years later" (Josep Call и Michael Tomasello)

      И да, мы сейчас ни на что не претендуем и может я повторюсь: "Публикуя эту первую статью на Хабре, мы делаем первый шаг к открытому диалогу... это лишь начало...". Мы проделали долгий путь и нам предстоит не меньше - мы хорошо это понимаем.


      1. n0isy
        15.10.2025 23:11

        Каким образом ARC-AGI-2 измеряет производительность? Вы вообще читали условия? Там ряд призов за эффективность, и ряд за абсолютную когнитивность в ряде выбранных задач, где как раз LLMки ранее имели проблемы.


        1. NeriaLab Автор
          15.10.2025 23:11

          Мы прекрасно знаем данный сайт и на Хабре есть новость. ARC-AGI-2 - это набор визуальных головоломок с абстрактными паттернами. Но что считается "когнитивностью" в рамках этого бенчмарка?! Настоящая когнитивность, как её понимают в когнитивной науке и как её тестируют в ToM - это способность действовать в открытой, неопределённой среде, где нет "правильного ответа", но есть этический выбор, намерения других агентов и необходимость целеполагания. Получается, "успех" LLM в ARC-AGI-2, достигается за счёт масштабного предобучения на визуально-логических паттернах?! И мы возвращаемся к тому, что данный бенчмарк, все таки тестирует производительность и эффективность вычислений


  1. valex2019
    15.10.2025 23:11

    Люди даже не представляют что что-то есть за пределами слов. настоящие учителя ни разу не рассказывали об истине. они говорили только о пути к ней. слова убоги и модель бесконечности всегда будет убога и всегда будет упускать самое главное -- бесконечность.

    Есть такое произведение -- Умэнь Хуэйкай "Застава без ворот учения чань" (чань-буддизм, китайский буддизм грубо говоря)

    Это вот оттуда:

    Сорок девятый рассказ

    В сутре сказано: "Прекрати, прекрати - об этом не скажешь. О моей утонченной истине нельзя даже помыслить".

    Аньвань заметит: Откуда берется истина? Где скрывается утонченность? А если кто-нибудь назовет их, что случится? Разве один Фэнгань распускал свой язык? Ведь и сам Будда был болтлив. Проделки этого старика сбили с толку не одну сотню поколений его потомков. Истину его причудливых речей ни ложкой не выловишь, ни в котелке не сваришь. Как ни старайся их понять, ошибки не избежишь. Люди вокруг спрашивают, как же нам быть в конце концов? Аньвань, смиренно сложив ладони, отвечает: "Прекрати, прекрати - об этом не скажешь. О моей утонченной истине нельзя даже помыслить". А теперь я выделю кружками слова "нельзя помыслить" и покажу их каждому. Все пять тысяч свитков канона и врата недвойственности Вималакирти сходятся в них.

    Если тебе скажут, что огонь в фонаре,

    Отвернись и не соглашайся.

    Только вор сразу узнает вора:

    Он все поймет с одного вопроса.


    1. konstantinutolin
      15.10.2025 23:11

      А КАКАЯ КОНКРЕТНО ПОЛЬЗА от всей этой зауми китайской? Что из неё позволило помочь создать хоть одно устройство, хоть одну повторяемую, воспроизводимую технологию?


      1. valex2019
        15.10.2025 23:11

        Напоминает армейский юмор -- если вы такие умные, то почему строем не ходите?

        Ну так вот это не про технологии, это про то, как не ходить строем по сансаре из жизни в жизнь. ну и заодно показать, что слова и символы -- это все конечно здорово и построение модели бесконечности (или ее части, что гораздо чаще бывает) любимое занятие хомо сапиенсов. но все это ковыряние в круговороте жизней. и оно того не стоит.


        1. flancer
          15.10.2025 23:11

          Вот об этом то и вопрос был - какая конкретно польза от этого знания? Что оно того не стоит - то понятно, а что тогда того стоит? Просто сказать, что то не стоит, это не стоит и ничего не стоит - много ума не надо. Какая КОНКРЕТНО ПОЛЬЗА от всей этой зауми? Никакой? Вот то-то и оно.

          Не ходить строем по сансаре из жизни в жизнь... а она есть, сансара эта? Понапридумывают себе сансар, а потом сидят с умным видом, в нирване, типа. Код бы лучше писали - тоже занятие бесполезное, так-то. Зато время неплохо убивает. Так незаметно и до старости дотянуть можно, при хорошем здоровье. А там уже ещё чуть-чуть и с сансарой понятно станет.


  1. ValeriyPus
    15.10.2025 23:11

    Вот это да (Сарказм).

    Спасибо, что прикручиваете NLU к SMT.


  1. AppCrafter
    15.10.2025 23:11

    Текст похож на изложение опыта аспирантов, уж очень академично. Особенно подгонки всего под научные теории и цитаты из книг.


  1. avshkol
    15.10.2025 23:11

    В основе вашей системы всё же предобученная llm? Если нет, откуда предполагается взять многочисленные знания о мире и как их поместить в вашу систему?


    1. NeriaLab Автор
      15.10.2025 23:11

      Так мы обучали в диалогах, каждый день что-то обсуждаем с системой. На данный момент, общее хранилище знаний - это около 300 Тб, мой новый HDD на 6 Tb, уже почти занят


      1. avshkol
        15.10.2025 23:11

        То есть вы взяли LLM (трансформер) и обучаете ее на диалогах, или что-то принципиально иное по архитектуре? Если иное, то интересно было бы понять, что это и как вы его обучаете?


        1. NeriaLab Автор
          15.10.2025 23:11

          "Именно поэтому мы не используем предобученные LLM даже как перцептивный слой. Они вносят статистическую шумность, разрушающую причинно-следственные связи."

          Знания попадают в систему не через "дообучение LLM на диалогах", а через структурированный диалог между оператором и агентом, где:

          • каждая новая концепция формализуется в виде символьной структуры;

          • затем проверяется на логическую и каузальную согласованность;

          • после проверки, включается в локальное хранилище знаний.

          Хранилище знаний (300 Тб) - это не дамп диалогов, а база верифицированных онтологических фрагментов.


          1. avshkol
            15.10.2025 23:11

            Хорошо, но в процессе этого диалога задействуется LLM?

            • каждая новая концепция формализуется в виде символьной структуры;

            • затем проверяется на логическую и каузальную согласованность;

            • после проверки, включается в локальное хранилище знаний.

            Это все делается вручную, с разбором через LLM, или какой-то иной алгоритм? Если иной, как он понимает диалоги?


            1. NeriaLab Автор
              15.10.2025 23:11

              Диалог ведётся напрямую, через интерфейс, основанный на грамматических и семантических парсерах, обученных на верифицированных корпусах. Каждая фраза оператора парсится в символьную структуру.


          1. konstantinutolin
            15.10.2025 23:11

            Хранилище знаний (300 Тб) - это не дамп диалогов, а база верифицированных онтологических фрагментов

            Верно ли понимаю, что всю онтологию вы создаёте, условно говоря, вручную? Если да, то почему не хотите использовать LLM для создания т.н. лингвистических онтологий типа как описано вот здесь: https://rcc.msu.ru/ru/modeli-i-metody-avtomaticheskogo-analiza-tekstov-na-osnove-lingvisticheskih-ontologiy-v, https://cyberleninka.ru/article/n/proektirovanie-lingvisticheskih-ontologiy-dlya-informatsionnyh-sistem-v-shirokih-predmetnyh-oblastyah, https://cyberleninka.ru/article/n/izvlechenie-informatsii-iz-tekstov-na-osnove-ontologii-i-bolshih-yazykovyh-modeley, https://habr.com/ru/companies/airi/articles/855128/?


            1. NeriaLab Автор
              15.10.2025 23:11

              Она формируется вручную, через структурированный диалог между оператором и агентом, где каждая новая концепция проходит верификацию на логическую и каузальную согласованность с уже существующей моделью мира. Почему мы сознательно отказались от использования LLM для построения лингвистических онтологий, даже таких, как описаны в указанных Вами работах? Для нас, онтология — это не набор связей между словами, а структура причинно-следственных отношений между сущностями. LLM может сказать, что «огонь» связан с «теплом», «опасностью» и «пожаром»?! LLM не знает, что тепло - следствие, опасность - оценка последствий, а пожар - это реакция.

              P.S.: Константин, Вы дублируете вопросы и сюда. Давайте или в лично или публично. Один и тот же ответ не хочется "гонять туда-сюда".


  1. Kamil_GR
    15.10.2025 23:11

    Я пока не сбрасываю со счетов LLM как единственную основу сильного ИИ. Мои последние размышления, приводят к гипотезам, требующим эмпирической проверки.

    Коротко

    1. Сознание над нейросетью (мозг или физическая нейросеть). Сознание проблематизирует и спрашивает, нейросеть отвечает. Сознание конструирует квалиа, переживает ответ, присваивает.

    2. Возможно на LLM с открытыми весами вести обучение модели через traces где каждый факт кодируется вместе с его эмоциональной значимостью. Это не добавление "модуля квалиа", а трансформация самой структуры весов так, чтобы семантика была неразрывно связана с её релевантностью.
      3. При таком переобучении веса автоматически формируют встроенную сеть, где близкие факты кластеризуются не просто по смыслу, но по значимости. Результат — модель мира возникает естественно как облако кластеризованных квалиа, где система уже знает: "это важно сейчас, потому что похоже на эпизоды с высоким arousal". Это создаёт направленность мышления, которой нет в текущих LLM

      4. При этом все процессы сознания, в первую очередь метарефлексия, конструирование квалиа и присвоение, остаются как в предыдущих гипотезах. Плюс вектор самости и векторная оперативная память.

    Есть шанс, что модель в таких условиях начнет оперировать связностью.


    1. NeriaLab Автор
      15.10.2025 23:11

      Камиль, Ваши мысли я "знаю", т.к. тщательно слежу за Вашими статьями на Хабре и в некоторых, "участвовал" в качестве комментатора


  1. flancer
    15.10.2025 23:11

    Я правильно понимаю, что вы пытаетесь сделать "ещё один разум" в добавок к 8млрд. уже существующих? И это я ещё обезъян и прочих не включил в это число. А для чего?

    LLM - замечательный инструмент для человеков. Будет ли таким же замечательным инструментом ваш "настоящий ИИ"? Или там всё-таки что-то придётся подкрутить, чтобы он "стал ответственным"? А останется ли он после этого "настоящим" или тоже перейдёт в категорию "инструментов"?

    Люди создают себе помощников, а не конкурентов. Конкурентов у них и так хватает. Вот поэтому и создают помощников - чтобы обойти конкурентов.

    Публикацию позеленил, хотя в саму вашу затею не сильно верю. Вы создаёте "домашних питомцев", "друзей" в лучшем случае, но не инструменты.


    1. NeriaLab Автор
      15.10.2025 23:11

      "Я правильно понимаю, что вы пытаетесь сделать "ещё один разум""

      Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться.

      "LLM - замечательный инструмент для человеков"

      Мои же слова, повторюсь: "...LLM - отличные инструменты и как генераторы они прекрасно помогают..."

      "Или там всё-таки что-то придётся подкрутить, чтобы он "стал ответственным"?"

      Во всех разработках гибридов, о которых мы знаем (с некоторыми командами мы поддерживаем определённые контакты), то во всех них: "Этическая устойчивость: встроена - структурно, на уровне архитектуры (фильтрация, мотивационная нагрузка, этические рамки)"

      "Люди создают себе помощников, а не конкурентов. Конкурентов у них и так хватает. Вот поэтому и создают помощников - чтобы обойти конкурентов."

      Закрытая когнитивная система Soar, под "крылом" DARPA и использующейся в военных и разведывательных целях - это ведь тоже, в некотором роде - "помощник"?! Есть еще публичная версия Soar, которую может скачать и развивать любой желающий.

      Вы задали очень интересные вопросы, которые "заставляют думать". Именно такие вопросы: о цели; ответственности и месте ИИ в обществе - обсуждаются в когнитивной науке, философии и инженерии уже не первый десяток лет.


      1. flancer
        15.10.2025 23:11

        Закрытая когнитивная система SOAR - самый что ни на есть "помощник", но при этом не является полноценным интеллектом. Вы же (и другие команды, разрабатывающие гибридов) создаёте условия для появления "настоящего" интеллекта, но при этом встраиваете в них "этическую устойчивость", которая не позволит "настоящему интеллекту" выйти за рамки, вами установленные. Вы не находите, что тут есть некоторое противоречие?

        Настоящий, полноценный интеллект сам устанавливает для себя рамки дозволенного, не так ли? Может стоить включить в тесты на интеллект проверку на способность к jail-breaking'у? Или даже так, только тот интеллект, который взломает установленные для него этические ограничения, и будет считаться настоящим.

        А вы точно хотите создать настоящий ИИ? Может достаточно ограничиться созданием просто "ещё одного помощника" - конкурента языковым моделям? :)


        1. NeriaLab Автор
          15.10.2025 23:11

          Мы не создаём "централизованный мозг", а строим автономную когнитивную систему, где каждый пользователь получает свой собственный экземпляр CALYSA - полностью локальный, работающий на его устройстве, с полным доступом к Глобальной Базе Знаний.

          Этические рамки встроены в архитектуру по умолчанию, но Вы, как владелец экземпляра, вольны изменить, отключить или перенастроить эти ограничения, но только через диалог и в режиме "Обучение", т.к. не "волшебной кнопки" - "выключить этику". Это Ваш выбор и Вы решаете, какой будет Ваша система. Но ответственность тоже сохраняется: Вы не сможете навязать свою "раскрепощённую" версию другим.


          1. MactireHB
            15.10.2025 23:11

            Со всем уважением к вашей работе и идеям, то, что вы описываете, можно сравнить с появлением ядерного оружия. Применений такому инструменту не счесть, отчего я не верю в успех этой работы — и не потому, что у вас не получится, а потому что... А это уже можно оставить на вольность конспирологов и сторонников теорий заговора.


            1. NeriaLab Автор
              15.10.2025 23:11

              • 50 лет назад - мы не верили, что компьютеры когда-нибудь станут доступны каждому человеку. Сегодня, у нас в кармане компьютеры, мощнее тех, что выводили людей на Луну;

              • 30 лет назад - мы не верили, что можно будет общаться с любым человеком на планете в реальном времени, бесплатно и с видео. Сегодня - это обыденность;

              • 20 лет назад - мы не верили, что машина сможет распознавать речь, лицо, диагностировать болезни. Сегодня - это работает, хоть и не всегда идеально.

              Но давайте я Вам покажу обратную сторону медали. Каким виделся 21 век людьми из 1910 года? Каждый сам решает, во что ему верить

              О будущем, или как это виделось в начале 20 века


              1. n99
                15.10.2025 23:11

                Также

                https://www.sakharov-archive.ru/sakharov/works/mir-cherez-polveka

                "В перспективе, быть может, поздней, чем через 50 лет, я предполагаю создание всемирной информационной системы (ВИС), которая и сделает доступным для каждого в любую минуту содержание любой книги, когда-либо и где-либо опубликованной, содержание любой статьи, получение любой справки. ВИС должна включать индивидуальные миниатюрные запросные приемники-передатчики, диспетчерские пункты, управляющие потоками информации, каналы связи, включающие тысячи искусственных спутников связи, кабельные и лазерные линии. Даже частичное осуществление ВИС окажет глубокое воздействие на жизнь каждого человека, на его досуг, на его интеллектуальное и художественное развитие."


  1. Technik555
    15.10.2025 23:11

    Доброго времени друзья, прочитал пока на искосок, суть уловил, иду параллельные курсом. Поддерживаю вас, послежу за вами посмотрю больше информации, может и поболтаем с кем из вас, результаты на ваши посмотрим, с ваш "партнёрам" поболтаем, сравним по решению задач и пониманию с наработка и что у меня есть.


    1. NeriaLab Автор
      15.10.2025 23:11

      Доброе утро.

      Скоро у Вас будет гораздо больше возможностей, а именно познакомиться не только с нами.

      Почему осенью 2025 года сразу несколько команд, работающих над гибридными архитектурами (не над LLM), начали "активно шевелиться"? Из-за недавней новости: другая, логическо-когнитивная система (тоже гибрид), "заточенная под юриспруденцию", выиграла второе крупное дело в Гонконге, приняв решение, основанное не на прецедентах, а на причинно-следственном анализе норм и контекста.

      В ближайшие месяцы другие команды из Европы, Азии, Северной и Южной Америки - также начнут делиться результатами, архитектурами и философией своих систем. Наши друзья-"конкуренты", проект «ANUBIS» - презентация запланирована на зима-весна 2026.


  1. acc0unt
    15.10.2025 23:11

    "Theory of mind" - это буквально один из лучших навыков у жирных LLM. Потому что в интернетах полно текста, в котором несколько участников. И базовая модель вынуждена учиться предсказывать поведение нескольких людей в разговоре на основе их прошлого поведения.

    Я понятия не имею, чему может "научить" шайка людей, которые с серьёзным лицом утверждают что "LLM не могут в ToM".


    1. axion-1
      15.10.2025 23:11

      Да, я бы и модель мира добавил в ту же копилку. У LLM хоть и есть слабые места, они скорее в другом и авторы из них упомянули разве что галлюцинации.


  1. NeoCode
    15.10.2025 23:11

    Чистая нейросеть/LLM эффективна, но неточна по определению - потому что это по сути приближенные вычисления. Чистая символьная модель точна, но не способна решить все задачи - потому что многие задачи нерешаемы иначе как полным перебором, а для многих и алгоритмы/формулы неизвестны. А вот гибрид - да, здесь и эвристический поиск, и точные вычисления, а еще можно прямо в памяти тегировать каким образом получены те или иные результаты: точными вычислениями - строго 1, нейросетью - пишем вероятность (0...1).


  1. dukei
    15.10.2025 23:11

    Честно говоря, не на ТоМ вам надо направлять усилия. Тем более, топовые LLM многое из этого уже умеют.

    Но обратите внимание, что всегда говорилось во всех шаблонных фильмах про ИИ? Что "ИИ никогда не победит нас, потому что он не умеет любить!". Вот где основной пафос!

    Научите вашу модельку любить - и вуа ля, пройдете тест Тьюринга.


  1. man4j
    15.10.2025 23:11

    Каждый раз говорили что LLM что-то не умеет и вот следующее поколение LLM уже это умеет. Имитация интеллекта - это прекрасно. А простенькие задачки с небольшим подвохом и не каждый человек может решить, получается у людей тоже интеллект не настоящий.


    1. MactireHB
      15.10.2025 23:11

      Если судить с точки зрения другого разумного существа, то вполне может оказаться и так. Однако современные LLM — это скорее лишь очень маленький фрагмент нашего сознания, а не весь интеллект. И здесь уже возникает вопрос: как создать сам интеллект целиком?


    1. NeriaLab Автор
      15.10.2025 23:11

      На конференции "CogSci 2024" Ребекка Сакс представила исследование, сравнивающее детей, взрослых и LLM в задачах на "false belief" с "новыми, нестандартными сюжетами". Она показала: "Где дети 4–5 лет справляются с обобщением с первого раза, там LLM проваливаются, если сценарий не совпадает с обучающими данными."


  1. Sollita
    15.10.2025 23:11

    Наконец-то статья о том, как действительно можно создать искусственный интеллект. Спасибо, Вы меня успокоили, а то я уже стала подозревать, что у всех создателей ИИ отсутствует логическое мышление. Ну и за ликбез по теме благодарю, узнала много нового и интересного. Уверена, что вы работаете в правильном направлении, а LLM - это тупик, который никогда не приведёт к созданию искусственного интеллекта.


    1. shlmzl
      15.10.2025 23:11

      Уверена, что вы работаете в правильном направлении, а LLM - это тупик

      Мадам, правильного направления не знает даже St. Peter.

      So where to now St. Peter
      If it's true I'm in your hands
      I may not be a Christian
      But I've done all one man can
      I understand I'm on the road
      Where all that was is gone
      So where to now St. Peter
      Show me which road I'm on


      1. Sollita
        15.10.2025 23:11

        Странный выбор ;) А что вообще мог знать сын рыбака 2000 лет назад?


  1. smx_ha
    15.10.2025 23:11

    Хороший тест для ИИ это показать каким образом эта ИИ могла бы сама (или через другую похожую ИИ) заполучить свои знания. Существующие LLM тут не подходят, в них все знания уже зашиты, по определению. А вот так чтоб ИИ сама строила модель мира взаимодействуя с ним, вот это уже было бы интересно.


    1. NeriaLab Автор
      15.10.2025 23:11

      Вы своим вопросом затронули саму суть агентности и автономного познания. Система должна строить модель мира через взаимодействие:

      • задавать вопросы, когда сталкивается с чем-то непонятным;

      • сформировать гипотезы на основе наблюдений;

      • проверить гипотезы через действие;

      • после всех проверок - интегрировать новые знания в в свою Базу Знаний.

      ИИ не должна содержать "зашитых" знаний, кроме базовых когнитивных и логических примитивов, подобно тому, как у ребёнка есть врождённые когнитивные способности.


      1. konstantinutolin
        15.10.2025 23:11

        А разве на это способны люди? Примеры "детей-маугли" показывают, что вне человеческого социума разум не развивается. Т.е. дети вне общения с другими людьми адекватную модель мира полностью самостоятельно построить не способны. И поэтому всё чаще возникают гипотезы и даже теории, что на самом деле РАЗУМ является свойством всего человеческого сообщества, а индивидуальные мозги - это всего лишь более (у тех, кого мы считаем умными), или менее (у более глупых) хороший транслятор этого КОЛЛЕКТИВНОГО РАЗУМА в нашу физическую реальность.

        Кроме того, есть в написанном Вами один ну очень спорный момент - процитирую: "LLM ... не могут моделировать убеждения, намерения или знания других агентов, даже в простейших сценариях". Но уже есть доказательства, что LLM отлично предсказывают поведение групп людей. Вот некоторые примеры:

        1. https://arxiv.org/abs/2411.01582 прогноз выборов, который был основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их моделей (программных имитаций).

        2. https://arxiv.org/abs/2411.10109
          а. Отобраны по заданным критериям 1000 «типовых» американцев.
          б. С каждым проведено углубленное 2-х часовое интервью (примерно 6,5 тыс слов)
          в. Расшифровка каждого из интервью была загружена в память отдельного ИИ-агента на основе ChatGPT-4o, превращая его тем самым в симулякра личности (индивидуального сознания) конкретного «типового» американца или американки.
          г. Потом прогнали каждого из 1000 человек через несколько канонических социолого-психологический тестов: Общий социальный опрос (GSS), личностный опросник "Большая пятерка", пять хорошо известных поведенческих экономических игр (напр, игра в диктатора, игра в общественные блага) и пять социологических экспериментов с контролем.
          д. И параллельно прогнали через эти же тесты, игры и т.д. всех симулякров личности «типовых» американцев, полученных в п. 2.
          е. Статистически корректно сравнили ответы и поведение реальных людей и симулякров их личностей.
          Результаты
          Симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85%, а из пяти экспериментов с участием как людей, так и их симулякров, в четырех симулякры дали результаты, почти неотличимые от реакций их прототипов - людей (коэффициент корреляции 0,98).

        3. https://www.pymc-labs.com/blog-posts/AI-based-Customer-Research и https://res.cloudinary.com/dsabx7eh1/image/upload/v1759961149/Screenshot_2025-10-08_221641_ryntoc.png
          Используя 57 реальных опросов потребителей, проведенных ведущей компанией по производству потребительских товаров (9300 ответов), метод SSR показал:
          • Достижение 90% корреляции с рейтингом продукта в опросах людей
          • Более 85% сходства распределения с фактическими результатами опроса
          • Реалистичные модели ответов, отражающие то, как люди на самом деле оценивают продукты
          Т.е. это подход, который создает достаточно надежные синтетические данные о потребителях, чтобы на их основе принимать реальные решения по разработке продуктов.

          Всё это противоречит Вашему утверждению. Если нет, то объясните, почему.


        1. smx_ha
          15.10.2025 23:11

          А разве на это способны люди? Примеры "детей-маугли" показывают, что вне человеческого социума разум не развивается. Т.е. дети вне общения с другими людьми адекватную модель мира полностью самостоятельно построить не способны

          Никто же не мешает тоже использовать несколько ИИ общающихся между собой. В этом есть своя логика, архитектура сети одной ИИ может быть неспособна догадаться о чем то, о чем будет способна догадаться другая ИИ в которой сеть немножко отличается. Главное чтоб у таких ИИ было само вот это вот свойство которое есть у людей: уметь наблюдать, строить выводы, делиться ими, слушать другие выводы, расширять свою модель добавляя в нее эти другие выводы.


  1. 7eight
    15.10.2025 23:11

    Большие языковые модели явно не были созданы что быть настоящим ИИ, они были созданы для выполнения конкретных задач быстро & дешово. А вот применения вашего настоящего ИИ я не вижу, очевидно что с LLM оно конкурировать не будет.

    А вообще я желаю успехов в этом неизведанном направлении, как по мне, интересно будет початиться с ИИ который реально имеет общию картинку мира.

    Кстати у вас есть какой-нибудь Дискорд сервер, где можно увидеть успехи ваших исследований? Ну или где можно увидеть диалоги с ИИ.


    1. NeriaLab Автор
      15.10.2025 23:11

      "...быстро..."

      Ответ LLM за 20 секунд против 1-2 секунды, любой когнитивной системы?!

      "...дешово..."

      Посмотрите на цену NVIDIA H100 - ~2,5 млн, если мне не изменяет память.

      "...конкурировать не будет..."

      Давайте я дам Вам ситуацию, а Вы скажете будет или нет. Вам работе нужно пройти в режимное здание, где глушится вся связь. Итак, доступа к таким системам как ChatGPT и др., у Вас не будет. Что остаётся? Остаётся использовать ноутбук с предустановленной "маленькой" локальной моделью LLM, которая генерирует ошибки и переучить в реальном режиме времени Вы её не сможете или у Вас есть полная, автономная, когнитивная система без ошибок, с большой базой знаний на SSD/HDD и возможностью обучения в реальном режиме времени

      "Кстати у вас есть какой-нибудь Дискорд сервер, где можно увидеть успехи ваших исследований? Ну или где можно увидеть диалоги с ИИ."

      На осень-зима 25/зима 26, у нас запланированы пока только первые шаги: публикация на ИТ-ресурсах, в разных странах и проведение вебинара. Затем получаем фидбэк, анализируем, исправляем допущенные ошибки. В следующем году уже будет сайт и телеграм-канал + ЗБТ

      Спасибо за поддержку


  1. phenik
    15.10.2025 23:11

    "Суть человеческого интеллекта заключается в способности выходить за рамки непосредственного опыта посредством использования знаков и инструментов"

    - Лев Семёнович Выготский (Vygotsky, L. S, советский психолог), "Мышление и речь" ("Thought and language") (1934)

    Выход за рамки непосредственного опыта происходит, в первую очередь, благодаря воображению, образному уровню мышления. Не случайно Эйнштейн постоянно повторял, что для творчества - "воображение важнее знаний". Это особенно проявлялось в его широко известной результативной практике мысленного экспериментирования. См. подробнее на эту тему в этом коменте. Кант в своей знаменитой теории познания также отводил воображению важное место, как связующее звено между чувственным опытом и разумом.

    Трансформерные ЯМ моделируют в основном ассоциативное мышление, отсюда их фантазии, которые назвали почему-то "глюками" (они же ничего не употребляли, если только разработчики;) Пример использования "глюков" для улучшения перевода текстов.

    По когнитивным архитектурам хороший обзор для интерисующихся.

    Удачи в архитектурных поисках! Как вариант, возможно она в нейроморфных решениях.


    1. NeriaLab Автор
      15.10.2025 23:11

      "Воображение рождается из опыта, но не ограничивается им. Оно инструмент преобразования действительности"

      - Лев Семёнович Выготский (советский психолог)

      Выход за пределы непосредственного опыта невозможен без воображения. Именно воображение позволяет нам строить мысленные модели мира, проводить контрфактические эксперименты и создавать новое.

      Спасибо, что напомнили об этом.


      1. phenik
        15.10.2025 23:11

        А вот и близкий по теме использованию воображения в ЯМ тест поспел)


        1. NeriaLab Автор
          15.10.2025 23:11

          Спасибо. Член нашей команды - специалист по когнитивистике его оценит и даст рекомендации


  1. tator
    15.10.2025 23:11

    Автор несколько раз упомянул что можно будет офлайн владеть собственной системой, указав при этом что в отличии от LLM, она не будет из-за нехватки токенов страдать по качеству результатов. А где она спрашивается будет хранить все свои результаты взаимодействия с "миром", или автор считает что для этого хватит условных 500ГБ хранилища?


    1. NeriaLab Автор
      15.10.2025 23:11

      Вот лично моя конфигурация (у каждого она будет своя): 128 Gb RAM и из них выделено 22 Gb под CALYSA + 4 Tb SSD как кэш знаний + 6 Tb основное личное хранилище знаний.


  1. konstantinutolin
    15.10.2025 23:11

    Вопрос по существу Вашей разработки - почему то, что предлагает Ваша группа, будет лучше, чем то, что предложено вот тут: https://arxiv.org/html/2410.15665v4#abstract?


    1. NeriaLab Автор
      15.10.2025 23:11

      Мы не считаем, что наше направление "лучше" или "хуже" LLM. С начала 1960-х и до конца 1980-х годов, всегда существовали разные течения ИИ: символьное, когнитивное, нейросетевое, эволюционное, роботизированное (embodied AI) и другие. Каждое из них опиралось на разные представления о природе разума и у каждого были как сторонники, так и критики. Как пример: Розенблатт критиковал символьный ИИ, но и сам был критически настроен к масштабированию перцептронов.

      Мы - "последователи" Ньюэлла и Саймона, LLM-подход - это наследник парадигмы глубокого обучения и масштабирования. Это разные философии, разные отправные точки, разные критерии "интеллекта". Ни одна из них пока не доказала своего превосходства в полной мере и обе сталкиваются с фундаментальными вызовами.

      Мы уважаем все направления, которые ищут путь к Настоящему ИИ через понимание природы разума. В конечном счёте, именно разнообразие подходов создаёт почву для настоящего прорыва.


  1. Thaleia
    15.10.2025 23:11

    Предпосылка, что разум можно сконструировать из компонента, онтологически ложна. Любая такая архитектура стабилизируется либо в сложную экспертную систему (если доминирует логика), либо в когнитивного симулянта (если доминирует динамика). Но не в наблюдателя...


    1. NeriaLab Автор
      15.10.2025 23:11

      "Разум - это не сумма компонентов, а единая система, в которой восприятие, память, внимание и цели взаимодействуют в реальном времени"

      - Ален Ньюэлл, Герберт Саймон ("Human Problem Solving", 1972)

      Вы правы


    1. konstantinutolin
      15.10.2025 23:11

      А смысл в наблюдении без действия?


  1. SergiiKol
    15.10.2025 23:11

    Довольно сильная статья по созданию ИИ, похожего на человеческий. Но находится ли эта идея на пике того, что обсуждает мировое научное сообщество? Ответ: нет.

    Научное сообщество ушло от сравнения мышления ИИ и человека. И, по сути, на наших глазах создаётся нечеловеческий интеллект. И то же сообщество даёт ответ: смогут ли человеческий и нечеловеческий интеллект конкурировать? Ответ: тоже нет — они решают разные задачи разными способами.

    Мы, люди, воспринимаем человеческий интеллект как единственно верный и эволюционно совершенный (божественный), но современные учёные так не думают.

    Вот как думают современные исследователи: "ограничивая ИИ отражением нашей перспективы, мы не позволяем ему исследовать идеи за пределами антропоцентрического фрейма" (Andrew Coyle).

    Появилась новая наука — "искусственная нейронаука", которая не исследует человеческий мозг, а исследует нейросетевые аналоги как принципиально иной тип познания.

    Уже есть множество примеров "нечеловеческого интеллекта", когда человек не может понять, как решён вопрос (ИИ-дизайн чипов Princeton/IIT, AlphaZero в шахматах).

    И вот тут возникает другой философский вопрос, который мало кто обсуждает: "смерть человеческой исключительности". Думаю, что на этапе осознания этого вопроса возможно будет создаваться новая мировая религия или, как минимум, новая философская парадигма.

    На самом деле, резюмируя: стоит вопрос, как изменится мир в ближайшем будущем. А игнорируя этот вопрос, утверждая, что "ИИ не сможет думать как человек и представлять опасность — это же калькулятор", мы очень сильно упрощаем наше ближайшее будущее как человеческого вида.




    1. NeriaLab Автор
      15.10.2025 23:11

      "Научное сообщество ушло от сравнения мышления ИИ и человека. И, по сути, на наших глазах создаётся нечеловеческий интеллект. И то же сообщество даёт ответ: смогут ли человеческий и нечеловеческий интеллект конкурировать? Ответ: тоже нет — они решают разные задачи разными способами."

      Я давно об этом уже писал в своих комментариях и брал цитату одного из исследователей ИИ, что (моими словами): "ИИ не будет похож на человеческий, т.к. это невозможно" и посмотрите на то, на что делает акцент наша команда: "Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться."

      "Мы, люди, воспринимаем человеческий интеллект как единственно верный и эволюционно совершенный (божественный), но современные учёные так не думают"

      Мы еще на этапе предпоготовки знали об этом, что человеческий интеллект - это не эталон, а один из возможных путей эволюции познания. Мы никогда не ставили целью "скопировать человека". Напротив, мы считаем, что ИИ должен быть иным: не ограниченным биологическими когнитивными искажениями, эмоциональными импульсами или краткосрочным горизонтом планирования.

      "И вот тут возникает другой философский вопрос, который мало кто обсуждает: "смерть человеческой исключительности". Думаю, что на этапе осознания этого вопроса возможно будет создаваться новая мировая религия или, как минимум, новая философская парадигма.

      На самом деле, резюмируя: стоит вопрос, как изменится мир в ближайшем будущем. А игнорируя этот вопрос, утверждая, что "ИИ не сможет думать как человек и представлять опасность — это же калькулятор", мы очень сильно упрощаем наше ближайшее будущее как человеческого вида."

      Вы поднимаете один из самых острых философских вопросов нашего времени - "смерть человеческой исключительности". И вы правы, этот вопрос действительно обсуждается слишком редко. Но позвольте уточнить: мы не стремимся к "смерти" исключительности, но стремимся к её переосмыслению. Пока Человек остаётся единственным существом, способным ставить этические вопросы, нести ответственность за последствия и создавать смысл.

      Давайте посмотрим на человеческую историю. Во все времена люди что-то превозносили и поклонялись:

      • майя приносили жертвы Богам;

      • луддиты разбивали станки, видя в них угрозу бытию человека;

      • церковь сжигала книги и гнала учёных, боясь утратить "монополию на истину".

      И сейчас уже начинается следующий цикл:

      • некоторые на форумах всерьёз обсуждают "Терминатора" как неизбежное будущее;

      • другие, напротив, уже начинают превозносить ИИ как Новых Богов: всеведущих, всеблагих, всесильных.


      1. SergiiKol
        15.10.2025 23:11

        То, что я увидел в статье, говорит мне, что архитектура CALYSA описана через имитацию человеческих когнитивных процессов: память, внимание, целеполагание. Но тогда получается, что вы, по сути, пытаетесь создать "человекоподобный" ИИ.

        Если ИИ должен быть иным, то возникает вопрос: не нужна ли другая система оценки, а не тесты, разработанные для человеческого интеллекта? Непонятно, какие этические принципы могут возникнуть в нечеловеческом ИИ — возможно, это будет совершенно иная этика, основанная на других базовых принципах. Здесь возникает ключевой вопрос множественности форм интеллекта.

        Проблема бинарного позиционирования:

        Вы написали статью в бинарной логике, но научное сообщество уже перешло к градуальной шкале. В вашей статье:

        LLM: "не ИИ", "статистический эхо-камерный театр", "никогда не станут ИИ"

        CALYSA (и гибриды): "настоящий ИИ", "единственный путь к Настоящему ИИ"

        Это возвращает дискуссию в 2016 год, когда было противостояние символьного ИИ и нейросетей. Но современная наука ушла от этой дихотомии.




        1. NeriaLab Автор
          15.10.2025 23:11

          Отказ от антропоцентризма не означает отказ от причинности, целеполагания и этики. LLM, несмотря на свою "нечеловечность", остаются "статистическим эхом" человеческого опыта со всеми его предвзятостями, ложью и хаосом. Это не "новый тип познания", а "усреднённая проекция прошлого".

          Настоящий нечеловеческий интеллект тот, что строит каузальную модель мира, формирует цели вне промпта, моделирует намерения других агентов и может сказать "нет", даже если это "неэффективно" с "точки зрения данных".

          Вы также справедливо отметили: наша статья звучит бинарно. Но это не дихотомия, а вывод из системного сравнения. В статье мы привели таблицу из 10 ключевых критериев (в первоначальном варианте статьи, их было чуть более 100), охватывающих модель мира, целеполагание, агентность, теорию разума, этическую устойчивость и другие признаки.

          Поэтому наша "бинарность" - не идеологический выбор, а констатация качественного разрыва: между "статистическим эхом" и "агентом с намерением", где нет промежуточной стадии, как и нет промежуточной стадии между "термометром" и "врачом".

          На предпоготовке (еще до выбора инстументов, архитектуры, ЯП) мы изучали не только когнитивные науки, но и зоопсихологию, как "думают": насекомые, птицы, животные. Мы не имитируем человеческие процессы, но стремимся к тому, что система должна понимать людей, потому что в ближайшие десятилетия система будет взаимодействовать именно с нами.


    1. phenik
      15.10.2025 23:11

      Научное сообщество ушло от сравнения мышления ИИ и человека. И, по сути, на наших глазах создаётся нечеловеческий интеллект. И то же сообщество даёт ответ: смогут ли человеческий и нечеловеческий интеллект конкурировать? Ответ: тоже нет — они решают разные задачи разными способами.

      Появилась новая наука — "искусственная нейронаука", которая не исследует человеческий мозг, а исследует нейросетевые аналоги как принципиально иной тип познания.

      Распространенное среди айтишников мнение вероятно связанное с незнанием современного уровня достижений в когнитивных и эволюционных исследованиях. В частности, по вопросу использования бэкпропа для обучения, см. этот комент с некоторыми пояснениями. Возможности ИИ в целом развивается в русле возможностей естественного, т.к. ориентируются на них, чтобы найти практическое применение, сравниваются с ними с целью превзойти их, а для этого они должны в некотором виде повторять их механизмы. Все что выходит за эти пределы, не понятное человеку, иногда даже просто не привычное, в тех же ЯМ нещадно выравнивается дополнительным обучением. Фактически ИИ выступал и в обозримом будущем будет выступать как усилитель ограниченных возможностей интеллекта человека, с эволюционной точки зрения, как полезная симбиотическая технология. В других вариантах, по крайней мере, в начальный период может как-то развиваться только в тайне, вне контроля общества, фактически подпольно, потенциально представляя некоторую опасность по аналогии с компьютерными вирусами.

      Эти моменты демонстрирует развитие самого интеллекта человека, например на логике, которая, в первом приближении, является классической. После создания КМ стало ясно, что диктуемая ей логика не совместима с классической и фон Нейман предложил ввести квантовую. Это казалось логичным, снимало противоречия в языке, однако, она не прижилась не только в науке, не говоря о массах, но даже в среде специалистов занимающихся квантовыми исследованиями. Подобные попытки предпринимались и позже, некоторые даже обещали, что дети будут усваивать логику квантмеха уже в детском саду) Но увы! Врожденные представления, воспитание и язык "выравнивают" подобные, на первый взгляд, полезные нововведения даже в логике, уже в раннем детстве. Это требует унификация общения, общепринятый уровень понимания и историческая преемственность знаний, и меняется медленно. Это будет относится и к логикам, которые может предложить в будущем ИИ полезные с его точки зрения. В отношении ЯМ в последнее время это становится особенно актуальным в связи с выявленными недостатками трансформенрной архитектуры и появлением множества работ по альтернативным архитектурам более приближенным к когнитивным, как пример.

      Ситуацию можно сравнить с исследованиями субъективных состояний (иногда именуемых в философии квалиа) в когнитивных исследованиях. Есть ее относительно легкие решения и тяжелая проблема их объяснения, связанная со способностью человека чувствовать, познавать и понимать. Первые связаны с поиском их нейронных механизмов, а вторая - тяжелая проблема, выходит за их рамки и требует понимания самой реальности в которой человек функционирует, т.е. понимания ее физики, причем фундаментального уровня. Конца этим исследованиям пока не видно. Некоторые даже считают, что пока даже не найден адекватный подход к ее решению. То что делалось и делается сейчас в области нейросетевого ИИ это моделирование работы нейронных механизмов, приближенные к биологическим прототипам, или не приближенные, и со временем, как правило, уходящие в небытие. Публикаций с такими тупиковыми путями исследования архитектур не мало на том же архиворге.

      Чтобы ИИ решал творческие задачи сравнимые с теми, которые может решать человек занимаясь познанием, а не только автоматизировать интеллектуальную рутину, которая тоже полезна на практике, нужно перейти от обучения ИИ на готовых текстах и медийных материалах к обучению на сырых эмпирических данных, т.е. непосредственно столкнуть его с реальностью, а не вторсырьем приготовленным человеком. Гигантские массивы данных от экспериментов таких, какие проводятся на том же БАКе, содержат не только предсказанные явления, которые ищутся специально, типа бозона Хиггса, но и массивы шумов, которые никак не анализируются. И которые потенциально уже могут содержать редкие явления связанные с Новой физикой, и соответственно, новыми концептуальными представлениями. ИИ со специальной архитектурой (она интенсивно развивается - 1, 2) может потенциально строить внутренние модели такой физики и выводить новые концепты, как аналоги человеческих квалиа. Их "мир", их "восприятие" будет другим, например, квантовым для квантовых экспериментов, и они внутри себя могут строить их модели и кв. логики, и транслировать результаты в понятные для человека представления. Фантастика? Отнюдь. Пока трындят об успехах ЯМ в программировании, решении олимпиадных задач и сдачи экзамен, в естественных науках, первую очередь физике, быстро набирает тренд (особенно в астрофизике из-за специфики решаемых задач) связанный с использованием ИИ для решения задач фундаментального уровня таких, как поиск размерности пространства решений сложных динамических систем не поддающихся аналитическим методам (статья на Хабре), или поиск следов редкого распада бозона Хиггса в ЦЕРНе не поддающихся традиционным статметодам. Именно в этих областях и с таким подходом к ИИ вероятно стоит ожидать творческих прорывов от его использования, вплоть до решения актуальной проблемы объединения квантовой физики с гравитацией, а не только генерации текстов и картинок. Именно такое применение ИИ может оказаться ключем к поиску объяснения тяжелой проблемы сознания, точнее загадки возникновения субъективных состояний.

      Уже есть множество примеров "нечеловеческого интеллекта", когда человек не может понять, как решён вопрос (ИИ-дизайн чипов Princeton/IIT, AlphaZero в шахматах).

      Почему не человеческого? Человек пока понимает результаты его работы, сами модели тренируются на приготовленных им данных, хотя способ решения может оставаться "черным ящиком" (очень большой авторегрессионной функцией - ИНС универсальные аппроксиматоры с мат. точки зрения). Но так и мозг, пока в основном, неизмеримо большой "черный ящик" генерирующий субъективные состояния. Как именно Эйнштейн пришел к идеям СТО, а затем ОТО? Он считает, что основную роль сыграло воображение, интуиция, т.е. образные формы мышления, а не только знания и логическое мышление (см. комент выше). Этот уровень мышления лишь облек эти образные формы в языковую, которые возникали в результате интенсивного обдумывания проблем. Такое пока не под силу существующему ИИ, нужно развивать архитектуру и использовать для обучения эмпирические данные. Эйнштейн знал несколько важных эмпирических фактов - результаты опытов Майкельсона-Морли подтвердившие постоянство ск. света, отклонения прецессии перигелия Меркурия от ожидаемого, и др. Возможно возникновение образов, исходно неясных, связанно с динамическими перестройками (морфогенезом) структуры сетей в мозге "на лету", и приведших его к озарению, возможность которая пока даже не стоит на повестке дня разработчиков архитектур ИИ. Пока они обходятся определенными статическими решениями, которые хорошо распараллеливаются для организации конвейерных вычислений, и на этом строится весь бизнес.

      Ждем новостей со всех фронтов)


  1. Kopasuy
    15.10.2025 23:11

    Недавно DeepMind доказали, что любые нейросети формируют модель мира


    1. NeriaLab Автор
      15.10.2025 23:11

      Когда DeepMind говорят, что "нейросети формируют модель мира", они имеют в виду внутреннее представление статистических закономерностей, выученных из данных. В когнитивной науке и философии ИИ, "модель мира" - это не статистика, а каузальная структура.

      LLM действительно "помнит" контекст, но только пока он умещается в "окно внимания". Как только контекст сдвигается, то "модель мира" исчезает. Это не модель в смысле постоянной, верифицируемой, причинно-следственной онтологии, а временная проекция паттернов.

      Мы не отрицаем работу DeepMind и она важна для всех, даже для нас, но важно различать:

      • модель, как статистический призрак - у LLM;

      • модель, как каузальный каркас - у когнитивных и гибридных архитектур.


  1. thethee
    15.10.2025 23:11

    Подскажите, а запись вебинара будет доступна на каком нибудь YouTube?


    1. NeriaLab Автор
      15.10.2025 23:11

      Да, обязательно запись будет вестись и будем выкладывать. Но позвольте я сделаю небольшое уточнение - среди нас есть люди разных специальностей, но нет ни одного "медийщика". Сейчас мы делаем первые шаги в медийном поле, затем придётся их проанализировать и потом выкладывать материалы


  1. victorsenkevich
    15.10.2025 23:11

    • Очень хорошая обзорная статья. С рядом спорных моментов. Начиная с базовых определений интеллекта, определениями не являющихся в силу их многословности и неформальности. Это лишь описания. Сильно похожие, кстати, на "определение" интеллекта от Ben Goertzel.

    • Определения должны быть краткими, иначе это описания или даже мечты.

    •™У меня есть собственное определение интеллекта (как и других когнитивных терминов), более формальное и более краткое.

    • LBS неудачная аббревиатура. Я предпочитаю более общее "Предикативный ИИ". "Фатальное ограничение" LBS таковым не является.

    • "Цель" (на самом деле более общим термином является мотивация) никоим образом не является неотъемлемой характеристикой интеллекта, а прежде всего субъекта, необязательно разумного.

    • Базовой характеристикой интеллекта является "понимание" и / или "смысл".

    ▲ Определение: Интеллект есть оператор смыслов.

    ▲ Определение: AGI / HLAI есть сущность способная к пониманию.

    • Конечно же, и понимание и смысл и другие когнитивные термины имеют свои краткие определения.

    • Про "модель мира" тоже надо забыть. Тем более, про предиктивную (не путать с предикативной). Которую продвигает ЛеКун и прочие. Каждый ИИ строит свой локальный ментальный домен, AIMeD я его называю, который, конечно же, можно считать подмножеством несуществующей глобальной "модели мира", но это неконструктивно и в целом неверно.

    • LLM / GenAI в целом не "тупик", хоть и достигли "плато" / "потолка" / "стены", а вполне себе часть общей простейшей формулы AGI = R (Recognition) + R (Reasoning).

    И т.д. и т.п.


    1. NeriaLab Автор
      15.10.2025 23:11

      Большое спасибо за столь содержательный комментарий. Вы поднимаете важные вопросы о форме определений и точности терминов и именно такие дискуссии нужны, чтобы "остановить подмену понятий и вернуть дискуссию об ИИ к её интеллектуальным основам" (из статьи).

      Вы правы в том, что определения должны быть краткими, но они также должны быть и операциональными, т. е. давать критерии, по которым можно отличить ИИ от не-ИИ.
      Наше описание - не "мечта", а попытка выразить через признаки то, что в когнитивной науке и философии разума считается необходимым для интеллекта: модель мира, целеполагание (мотивация как источник действия), теория разума, этическая устойчивость. Ваш AIMeD (AI Mental Domain) - это частный случай.

      Вы предлагаете: "Интеллект есть оператор смыслов" и мы согласны: понимание и смысл - это ядро интеллекта. Но тогда возникает вопрос: как LLM "оперирует смыслами", если он не может отличить "огонь как тепло" от "огонь как опасность", если не обладает каузальной моделью?! Он оперирует статистическими корреляциями, а не смыслом в когнитивном смысле.

      Что до LBS и "предикативного ИИ", то мы используем термин Logic-Based Systems, потому что он устоялся в литературе (Newell, Simon, Nilsson) и он точнее отражает суть: вывод на основе логики, а не просто предикатов.

      И наконец, о формуле AGI = R + R - да, распознавание и рассуждение важны, но без модели мира, без мотивации, без способности к этическому выбору - это инструмент, а не агент.


      1. victorsenkevich
        15.10.2025 23:11

        Спасибо за подробный ответ.

        • >...как LLM "оперирует смыслами", если он не может отличить "огонь как тепло" от "огонь как опасность", если не обладает каузальной моделью?! Он оперирует статистическими корреляциями, а не смыслом в когнитивном смысле.

        Особо никак. Однако "статистические корреляции" это основа аналогий, и это то, с чего начинается интеллект – с распознавания, то самое 1-е слагаемое в формуле AGI. И это тоже мышление, только не логическое, а ассоциативное. Т.е. это составная часть интеллекта, "быстрое мышление" Канеман 1, основа инстинктов, рефлексов, навыков и даже "здравого смысла", создаваемое повторениями. И это путь к интеграции "статистического" Байесова "быстрого" мышления Канеман 1 и логического Булева "медленного" Канеман 2 мышления. У меня всё это изложено.

        • Ваш перечень требований к интеллекту понятен. Только он не необходимый, а достаточный. А начинать надо с базового необходимого. Достаточный сам разовьётся из необходимого.

        • В том числе указанная вами известная проблема AI grounding, состоящая в необходимости "понимать" этические аспекты, физический смысл и прочая и прочая терминов / символов / понятий. Это опять же достаточное условие, но не необходимое. Без такого сенсорного граундинга с реальным миром / квалиа интеллект всё равно останется интеллектом, хоть и ограниченно понимающим термины из физического мира. Далеко не все ментальные домены / AIMeD привязаны к реальному миру. Для железных роботов это важно. А для анализа экономики уже не очень. Множество понятий имеют очень слабую связь с физическим миром.

        • Формул AGI у меня 2:

        AGI = R + R (Recognition + Reasoning).

        АGI Agent = R + R + M (Recognition + Reasoning + Motivation).

        ▲ Определение: Субъект есть объект с мотивацией.

        ▲ Определение: Субъект с предопределенной мотивацией есть агент.

        Цели у агента может и не быть, но мотивация быть обязана. Мотивация без конечной цели есть миссия. Например, поддерживать устойчивое состояние некоторой системы.

        • Этика ИИ и прочее есть отдельная тема, называемая AI Alignment. Тут тоже есть что сказать, но это надолго. Главное, что надо понять, это то, что все эти составляющие истинного ИИ необходимо не смешивать в кучу, а разделять. Иначе истинным интеллектом, по таким "достаточным" требованиям, будут обладать только высоконравственные профессора философии. А это не так. Это, кстати, фундаментальная тесно связанная с интеллектом проблема Сознания (тоже есть у меня краткое определение). Слишком навороченное определение Сознания приведет к этической проблеме непризнания сознательными многих вполне сознательных сущностей, животных, например, и не только. То же и с интеллектом. Необходимо базовое минимальное определение, которое и надо программировать. Всё остальное потом приложится. Вот такие потенциально программируемые / codable определения я и формулирую. Нам же надо программировать ИИ. А длинные пространные описания с множеством неформализуемых излишних сущностей оставляем философам. Которые, кстати, никак пока не отметились в подходах к созданию AGI


        1. NeriaLab Автор
          15.10.2025 23:11

          Ключевой методологический вопрос: что считать "базовым необходимым" для интеллекта, а что - "развиваемым достаточным". И да, интеллект начинается с распознавания: с ассоциативного, статистического, "быстрого" мышления (Канеман 1) и именно так учатся дети, животные, также формируются и навыки.

          AGI = R + R - это элегантная и рабочая формула, но здесь возникает фундаментальный поворот:

          • Распознавание (R1) без причинной модели мира остаётся поверхностной корреляцией;

          • Рассуждение (R2) без мотивации (M) остаётся формальным упражнением, не ведущим к действию.

          Вы пишете: "Цели у агента может и не быть, но мотивация быть обязана" и с этим мы согласны. Но, мотивация без модели мира - слепа, а модель мира без этического фрейма - опасна. И иименно поэтому, мы не смешиваем компоненты в кучу, а строим их взаимную конституцию:

          • распознавание → формирует символы;

          • символы → активируют когнитивные процессы;

          • когнитивные процессы → генерируют мотивацию;

          • мотивация → запускает логическое рассуждение;

          • рассуждение → проверяется на этическую устойчивость.

          Может это и не "достаточное условие для профессора философии", но для нас - минимальная архитектура агента, способного не просто отвечать, а нести ответственность.

          Что до AI grounding: и здесь Вы правы - не все домены привязаны к физическому миру. Но без каузальной модели - это шум, а с ней - понимание.