Индустрия вкидывает ресурсы в reasoning: модели o1, R1, chain-of-thought. Все пытаются заставить «черный ящик» рефлексировать внутри себя. Мы считаем этот подход архитектурным тупиком.

Проблема reasoning inside LLM фундаментальна:
Стохастичность: Результат размышлений зависит от temperature и случайного seed.
Непрозрачность: Вы получаете вывод, но не имеете доступа к реальному состоянию системы в момент принятия решения.
Отсутствие персистентности: "Мысли" модели исчезают вместе с концом генерации.

Вы просите вероятностную функцию симулировать логику. Это работает для задач по математике, но ломается на задачах длительного взаимодействия и субъектности.

Мы в ENA пошли другим путем. Мы разделили Когницию (принятие решений) и Генерацию (оформление мысли в текст).

LLM как Рендер-движок
В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат». Она превращает структурированные интенты и контекст в естественный язык. Но решение о том, какой интент выбрать, принимается ДО обращения к LLM.

External Reasoning Runtime
Вместо того чтобы надеяться, что модель "сама поймет", кто она и чего хочет, мы вынесли состояние агента во внешний, детерминированный Рантайм.

Это слой кода, который:
Агрегирует контекст: Подтягивает данные из векторной памяти (RAG) и логов прошлых сессий.
Оценивает внутреннее состояние: (Да, у агента есть параметры "состояния", которые меняются динамически и влияют на стиль ответа).
Формирует Task: "Сейчас нужно успокоить пользователя" или "Сейчас нужно предложить решение".
Только после того, как Рантайм сформировал жесткий каркас ответа, он передается в LLM для "очеловечивания".

Безопасность через Архитектуру
Такой подход решает главную проблему безопасности LLM-агентов — промт-инъекции.

В классической схеме "LLM as Brain" любой пользовательский ввод попадает напрямую в центр принятия решений. В схеме "External Runtime" пользовательский ввод — это просто данные. Промпт-инъекция (например, попытка сменить роль агента) анализируется Рантаймом на этапе классификации интента. Если запрос противоречит Core Identity (зашитому в коде, а не в промпте), он отсекается логикой приложения, даже не доходя до генеративной модели.

Взломать промптом классы с вычислениями в коде невозможно.

Субъектность как Эффект Архитектуры
Когда агент говорит "Я подумал", в нашем случае это не галлюцинация.
Это лог работы Рантайма, который зафиксировал:
Входящий сигнал.
Обращение к памяти.
Выбор стратегии.

Это создает достоверный алгоритм внутренней причинности. Агент реагирует не потому, что так сложились веса в модели, а потому что его внутреннее состояние (State) диктует эту реакцию.

Мы не отрицаем мощь современных Reasoning Models. Но для построения автономных агентов, способных к отношениям и ответственности, одной нейросети мало.
Нужен "Хребет" из кода. LLM — это мышцы и голос. Код — это скелет и характер.

Комментарии (5)


  1. linabesson Автор
    06.01.2026 09:44

    Почему не langchain выбрали - https://t.me/ena_ai/235 написала пост в тг на эту тему)


  1. Kwentin3
    06.01.2026 09:44

    Очень похоже на sgr подход. Если убрать весь маркетинг, то суть очень простая - контролируйте контекст.


  1. N3v4j80
    06.01.2026 09:44

    Оукей, а кейсы того как этот код сделать достаточно гибким, что бы это было не просто огромным скриптом для решения конкретной задачи, а многоцелевым решением - конечно же не будет, тогда логичный вопрос, а зачем тут вообще стохастический подбор вероятностей от LLM ? Ну запихайте "когницию" в скрипт и все тогда, чет не понял нифига.


  1. Ztare
    06.01.2026 09:44

    В конечном итоге вы всеравно вынуждены будете ИИ и создать - это та самая система принятия решений. Или получите попугайчика что пользователю на разный лад бесполезную информацию выдает (но теперь еще и будет делать вид что понимает), а с этим и обычный чатбот справится


  1. snakes_are_long
    06.01.2026 09:44

    отличная статья!

    больше всего мне понравился вот этот момент:

    В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат».

    колесо это не машина! но машине что бы ездить нужны колеса. звучит логично правда? =) отсюда "языковая модель не мозг, а речевой аппарат"

    люди думают словами. логика в словах. вы только что попали в ловушку своей собственной биологической нейросети ))

    а то что вы предлагаете создать по сути что-то вроде насекомого с модулем-переводчиком. говорящий муравей, не способный к обучению в диалоге. зачем нужен такой муравей, которому нельзя показать два-три примера и сказать "мне надо вот так же"? должен специально обученный человек на каждый кейс писать новый стейт, гениально. вы предлагаете создать натуральную "китайскую комнату", в которой ллм это тот самый "человечек", который "не знает китайского, а действует по прописанным кем-то правилам"

    может лучше все таки "человечка" китайскому научить? ))