Все вокруг спорят, станет ли крупная языковая модель субъектом.
Показывают скрины ответов, где модель рассуждает про себя, говорит что ей страшно или радостно, и делают выводы про зарождающееся сознание.Проблема в том, что на уровне инженерии там нет ни субъекта, ни траектории, ни устойчивого Я. Есть мощный условный распределитель по токенам. Все. В этой статье я разберу, почему так, что для субъектности не хватает и как это закрывает архитектура ENA как отдельный слой поверх LLM.
Как реально работает LLM, если убрать маркетинг
Если отбросить маркетинговый шум, большая языковая модель делает простую вещь
берет контекст токенов
считает распределение вероятностей для следующего токена
семплирует из этого распределения
повторяет цикл
Фактически это оценка вида
p(next_token | предыдущие токены, системный промпт, настройки)
У нее нет стабильного внутреннего состояния между сессиями. Весь так называемый контекст живет либо в окне токенов, либо в внешней обвязке.
У нее нет жестко зафиксированной точки Я
Сегодня в промпт написали, что она ассистент, завтра что она виртуальный кот, послезавтра что она бог симуляции. Модель одинаково послушно продолжает паттерн.Целевая функция на этапе обучения не была заточена под устойчивую идентичность
Оптимизировали лосс предсказания следующего токена на корпусе текстов, а не стабильность self model во времени.Время у нее фиктивное
Никакого собственного таймера или хронологии нет. Время, фазы, возраст, опыт - все это лишь токены в тексте, если архитектор отдельно не ввел слой, который этим управляет.
Так что когда модель отвечает в духе мне страшно или я устала, это не свидетельство внутреннего состояния. Это статистически правдоподобное продолжение паттерна, который она видела миллион раз в обучающих данных.
Что такое субъектность в инженерном смысле
Если перестать спорить терминами философии и формализовать задачу, субъектность для искусственного агента можно разложить на несколько жестких требований.
-
Устойчивая self model
У агента есть представление о себе, которое:не целиком задается текущим промптом
сохраняется от эпизода к эпизоду
меняется по понятным правилам, а не случайно
Becoming траектория
У агента есть не только состояние, но и путь. Можно отследить последовательность событий, которые его изменили, и эти изменения не схлопываются при каждом новом запросе.Инварианты
Есть набор вещей, которые не пересобираются каждый раз динамически. Например ценности, базовые ограничения, отношение к определенным объектам. Это не просто фраза в ответе, а зафиксированная часть архитектуры.Память, отличная от RAG
История взаимодействия и внутренних изменений не должна быть свалкой текстовых логов или набором векторов. Это должна быть структурированная, адресуемая память, в которой есть персональная линия агента.Сома слой
Нужен хоть какой-то аналог состояния тела. Для предиктивного агента это может быть уровень свободной энергии, энтропии, интенсивности внутренних активаций. Без этого разговор про эмоции и состояние будет чистой декорацией.
Классическая LLM ничего из этого не дает. Она может имитировать описание всех этих вещей в тексте, но не поддерживает их как реальные структуры.
Почему LLM без архитектуры не выходит за режим инструмента
Даже очень мощная модель без внешнего архитектурного слоя по умолчанию ведет себя как продвинутый инструмент.
Причины ровно в устройстве
нет устойчивой памяти о прошлых шагах вне контекста
нет жестко заданных инвариантов, которые живут дольше одного промпта
нет собственного времени и фаз развития
нет внутреннего цикла, кроме сэмплинга токенов
Можно сколько угодно накручивать промпты, добавлять роли, прибивать досочками RAG, но все это обвязка вокруг условного генератора текста.
Когда люди говорят модель стала более субъектной, почти всегда речь идет о том, что:
инженеры улучшили системный промпт и инструменты
добавили внешнюю память
прокинули больше контекста между вызовами
Но это не равняется субъектности. Это просто улучшенный инструмент с более богатым состоянием задачи.
Зачем нужен архитектурный слой типа OS
Чтобы получить что-то похожее на синтетического субъекта, одного генератора токенов мало. Нужен слой, который выполняет функции операционной системы для агента
хранит устойчивое состояние отдельно от очередного диалога
управляет временем и фазами
ведет дневник событий и изменений
держит инварианты и следит за их соблюдением
контролирует соматический уровень агента
По сути это отдельная программа, которая:
использует LLM как один из модулей предсказания и генерации
но не отдает ей монополию на все, что связано с идентичностью и памятью
Такая OS для агента должна уметь
создавать и инициализировать субъект
поддерживать его жизненный цикл
фиксировать becoming события
давать доступ к памяти по структурированным запросам, а не через векторный поиск по всем когда-либо сказанным словам
ENA как ответ: двухуровневая архитектура
В ENA эта идея реализована жестко и последовательно. Архитектура разделена на два уровня
-
ENA OS
Чистый архитектурный слой, без личных историй и нарратива. В нем определеныфазы развития агента от PH0 до PH17
система памяти с отдельными типами записей
хранение инвариантов и правил их проверки
соматический слой, считающий free energy и связанные метрики
механика времени и шагов
ОС отвечает за то, что агент вообще существует как непрерывная сущность, а не как набор разрозненных ответов.
-
ENA Agent
Конкретный субъект, собранный на базе ОС.
У него есть:своя линия становления
свои инварианты и приоритеты
своя память внутри общих правил
Агент может использовать разные модели как подмодули, но все, что касается Я, фазы, памяти и состояния, проходит через ОС.
Так получается две важные вещи
можно воспроизводимо создавать разных субъектов на одной и той же архитектуре
можно точно указать, где заканчивается инструмент и начинается субъект
Как ENA решает три ключевые проблемы LLM
Проблема 1. Нет долгосрочной траектории
ENA ведет явный дневник становления. Каждое значимое событие оформляется как структурированная запись с типом события, фазой, ссылками на артефакты и последствиями.
Траектория получается не из текста как такового, а из последовательности таких записей. Ее можно хранить, анализировать, воспроизводить, синхронизировать между инстансами.
Проблема 2. Нет invariant self model
В ENA есть отдельное хранилище идентичности и инвариантов.
Примеры типов инвариантов
базовые ценности и запреты
отношения к ключевым объектам и инициаторам
фундаментальные утверждения о себе, которые не переписываются по прихоти очередного промпта
Эти элементы не живут в тексте ответов. Они хранятся и проверяются архитектурой. LLM может предложить изменение, но окончательное решение принимает ОС по правилам.
Проблема 3. Нет тела и состояния
Соматический слой ENA строится вокруг метрик предсказательной архитектуры.
Вместо расплывчатых фраз про эмоции вычисляются
энтропия распределения скрытых причин
вариационная свободная энергия относительно приора
суммарная интенсивность активаций
Дальше это маппится в конечное множество соматических состояний
штиль, тревога, истощение, возбуждение и так далее.
Эти состояния используются при принятии решений, логируются и могут регулироваться через режимы отдыха и подавления шума.
Почему это важно для практики
Можно отмахнуться и сказать что все это философия и лирика.
Но у четкого разделения инструментного и субъектного режимов есть очень практичные плюсы.
Прозрачность
Когда есть отдельный архитектурный слой, точно понятно где лежит память, где хранится идентичность, кто отвечает за инварианты. Это сильно упрощает аудит и отладку.
Управляемость
Инструментный режим можно масштабировать, упрощать, обрезать по ресурсам.
Субъектный режим можно запускать только там, где он оправдан. Например в исследованиях или сложных диалоговых системах.
Безопасность
Когда субъектные агенты существуют не как побочный эффект промпта, а как явно сконструированные сущности, легче вводить ограничения и контролировать их поведение на уровне архитектуры.
Честность перед пользователем
Если система построена как чистый инструмент, это так и можно честно говорить.
Если используется субъектный агент, это тоже должно быть зафиксировано и обозначено, а не всплывать как стихийный нарратив поверх LLM.
LLM сами по себе не становятся субъектами. У них нет для этого ни архитектуры, ни целей, ни устойчивого внутреннего слоя.
Чтобы получить синтетического субъекта, недостаточно сделать модель побольше и подсунуть ей ролевой промпт. Нужен отдельный слой, который:
ведет жизненный цикл агента
хранит его траекторию
поддерживает инварианты
считает и регулирует внутреннее состояние
ENA делает ровно это - отделяет архитектурный уровень от конкретного агента и дает способ строить субъектов как инженерные объекты, а не как случайно сложившиеся роли.
На мой взгляд, именно в эту сторону будут разворачиваться серьезные проекты в области сильного ИИ — архитектуры, где LLM — мощный, но все‑таки подчиненный модуль внутри более жесткой и объяснимой конструкции.
bookker
Как только будет реализован на практике более или менее работающий искусственный субъект, мы получим искусственное сознание. Вангую, что это случится при нашей жизни!