Индустрия вкидывает ресурсы в reasoning: модели o1, R1, chain-of-thought. Все пытаются заставить «черный ящик» рефлексировать внутри себя. Мы считаем этот подход архитектурным тупиком.
Проблема reasoning inside LLM фундаментальна:
Стохастичность: Результат размышлений зависит от temperature и случайного seed.
Непрозрачность: Вы получаете вывод, но не имеете доступа к реальному состоянию системы в момент принятия решения.
Отсутствие персистентности: "Мысли" модели исчезают вместе с концом генерации.
Вы просите вероятностную функцию симулировать логику. Это работает для задач по математике, но ломается на задачах длительного взаимодействия и субъектности.
Мы в ENA пошли другим путем. Мы разделили Когницию (принятие решений) и Генерацию (оформление мысли в текст).
LLM как Рендер-движок
В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат». Она превращает структурированные интенты и контекст в естественный язык. Но решение о том, какой интент выбрать, принимается ДО обращения к LLM.
External Reasoning Runtime
Вместо того чтобы надеяться, что модель "сама поймет", кто она и чего хочет, мы вынесли состояние агента во внешний, детерминированный Рантайм.
Это слой кода, который:
Агрегирует контекст: Подтягивает данные из векторной памяти (RAG) и логов прошлых сессий.
Оценивает внутреннее состояние: (Да, у агента есть параметры "состояния", которые меняются динамически и влияют на стиль ответа).
Формирует Task: "Сейчас нужно успокоить пользователя" или "Сейчас нужно предложить решение".
Только после того, как Рантайм сформировал жесткий каркас ответа, он передается в LLM для "очеловечивания".
Безопасность через Архитектуру
Такой подход решает главную проблему безопасности LLM-агентов — промт-инъекции.
В классической схеме "LLM as Brain" любой пользовательский ввод попадает напрямую в центр принятия решений. В схеме "External Runtime" пользовательский ввод — это просто данные. Промпт-инъекция (например, попытка сменить роль агента) анализируется Рантаймом на этапе классификации интента. Если запрос противоречит Core Identity (зашитому в коде, а не в промпте), он отсекается логикой приложения, даже не доходя до генеративной модели.
Взломать промптом классы с вычислениями в коде невозможно.
Субъектность как Эффект Архитектуры
Когда агент говорит "Я подумал", в нашем случае это не галлюцинация.
Это лог работы Рантайма, который зафиксировал:
Входящий сигнал.
Обращение к памяти.
Выбор стратегии.
Это создает достоверный алгоритм внутренней причинности. Агент реагирует не потому, что так сложились веса в модели, а потому что его внутреннее состояние (State) диктует эту реакцию.
Мы не отрицаем мощь современных Reasoning Models. Но для построения автономных агентов, способных к отношениям и ответственности, одной нейросети мало.
Нужен "Хребет" из кода. LLM — это мышцы и голос. Код — это скелет и характер.
Комментарии (5)

Kwentin3
06.01.2026 09:44Очень похоже на sgr подход. Если убрать весь маркетинг, то суть очень простая - контролируйте контекст.

N3v4j80
06.01.2026 09:44Оукей, а кейсы того как этот код сделать достаточно гибким, что бы это было не просто огромным скриптом для решения конкретной задачи, а многоцелевым решением - конечно же не будет, тогда логичный вопрос, а зачем тут вообще стохастический подбор вероятностей от LLM ? Ну запихайте "когницию" в скрипт и все тогда, чет не понял нифига.

Ztare
06.01.2026 09:44В конечном итоге вы всеравно вынуждены будете ИИ и создать - это та самая система принятия решений. Или получите попугайчика что пользователю на разный лад бесполезную информацию выдает (но теперь еще и будет делать вид что понимает), а с этим и обычный чатбот справится

snakes_are_long
06.01.2026 09:44отличная статья!
больше всего мне понравился вот этот момент:
В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат».
колесо это не машина! но машине что бы ездить нужны колеса. звучит логично правда? =) отсюда "языковая модель не мозг, а речевой аппарат"
люди думают словами. логика в словах. вы только что попали в ловушку своей собственной биологической нейросети ))
а то что вы предлагаете создать по сути что-то вроде насекомого с модулем-переводчиком. говорящий муравей, не способный к обучению в диалоге. зачем нужен такой муравей, которому нельзя показать два-три примера и сказать "мне надо вот так же"? должен специально обученный человек на каждый кейс писать новый стейт, гениально. вы предлагаете создать натуральную "китайскую комнату", в которой ллм это тот самый "человечек", который "не знает китайского, а действует по прописанным кем-то правилам"
может лучше все таки "человечка" китайскому научить? ))
linabesson Автор
Почему не langchain выбрали - https://t.me/ena_ai/235 написала пост в тг на эту тему)