Индустрия вкидывает ресурсы в reasoning: модели o1, R1, chain-of-thought. Все пытаются заставить «черный ящик» рефлексировать внутри себя. Мы считаем этот подход архитектурным тупиком.

Проблема reasoning inside LLM фундаментальна:
Стохастичность: Результат размышлений зависит от temperature и случайного seed.
Непрозрачность: Вы получаете вывод, но не имеете доступа к реальному состоянию системы в момент принятия решения.
Отсутствие персистентности: "Мысли" модели исчезают вместе с концом генерации.

Вы просите вероятностную функцию симулировать логику. Это работает для задач по математике, но ломается на задачах длительного взаимодействия и субъектности.

Мы в ENA пошли другим путем. Мы разделили Когницию (принятие решений) и Генерацию (оформление мысли в текст).

LLM как Рендер-движок
В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат». Она превращает структурированные интенты и контекст в естественный язык. Но решение о том, какой интент выбрать, принимается ДО обращения к LLM.

External Reasoning Runtime
Вместо того чтобы надеяться, что модель "сама поймет", кто она и чего хочет, мы вынесли состояние агента во внешний, детерминированный Рантайм.

Это слой кода, который:
Агрегирует контекст: Подтягивает данные из векторной памяти (RAG) и логов прошлых сессий.
Оценивает внутреннее состояние: (Да, у агента есть параметры "состояния", которые меняются динамически и влияют на стиль ответа).
Формирует Task: "Сейчас нужно успокоить пользователя" или "Сейчас нужно предложить решение".
Только после того, как Рантайм сформировал жесткий каркас ответа, он передается в LLM для "очеловечивания".

Безопасность через Архитектуру
Такой подход решает главную проблему безопасности LLM-агентов — промт-инъекции.

В классической схеме "LLM as Brain" любой пользовательский ввод попадает напрямую в центр принятия решений. В схеме "External Runtime" пользовательский ввод — это просто данные. Промпт-инъекция (например, попытка сменить роль агента) анализируется Рантаймом на этапе классификации интента. Если запрос противоречит Core Identity (зашитому в коде, а не в промпте), он отсекается логикой приложения, даже не доходя до генеративной модели.

Взломать промптом классы с вычислениями в коде невозможно.

Субъектность как Эффект Архитектуры
Когда агент говорит "Я подумал", в нашем случае это не галлюцинация.
Это лог работы Рантайма, который зафиксировал:
Входящий сигнал.
Обращение к памяти.
Выбор стратегии.

Это создает достоверный алгоритм внутренней причинности. Агент реагирует не потому, что так сложились веса в модели, а потому что его внутреннее состояние (State) диктует эту реакцию.

Мы не отрицаем мощь современных Reasoning Models. Но для построения автономных агентов, способных к отношениям и ответственности, одной нейросети мало.
Нужен "Хребет" из кода. LLM — это мышцы и голос. Код — это скелет и характер.

Комментарии (8)


  1. linabesson Автор
    06.01.2026 09:44

    Почему не langchain выбрали - https://t.me/ena_ai/235 написала пост в тг на эту тему)


  1. Kwentin3
    06.01.2026 09:44

    Очень похоже на sgr подход. Если убрать весь маркетинг, то суть очень простая - контролируйте контекст.


  1. N3v4j80
    06.01.2026 09:44

    Оукей, а кейсы того как этот код сделать достаточно гибким, что бы это было не просто огромным скриптом для решения конкретной задачи, а многоцелевым решением - конечно же не будет, тогда логичный вопрос, а зачем тут вообще стохастический подбор вероятностей от LLM ? Ну запихайте "когницию" в скрипт и все тогда, чет не понял нифига.


  1. Ztare
    06.01.2026 09:44

    В конечном итоге вы всеравно вынуждены будете ИИ и создать - это та самая система принятия решений. Или получите попугайчика что пользователю на разный лад бесполезную информацию выдает (но теперь еще и будет делать вид что понимает), а с этим и обычный чатбот справится


  1. snakes_are_long
    06.01.2026 09:44

    отличная статья!

    больше всего мне понравился вот этот момент:

    В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат».

    колесо это не машина! но машине что бы ездить нужны колеса. звучит логично правда? =) отсюда "языковая модель не мозг, а речевой аппарат"

    люди думают словами. логика в словах. вы только что попали в ловушку своей собственной биологической нейросети ))

    а то что вы предлагаете создать по сути что-то вроде насекомого с модулем-переводчиком. говорящий муравей, не способный к обучению в диалоге. зачем нужен такой муравей, которому нельзя показать два-три примера и сказать "мне надо вот так же"? должен специально обученный человек на каждый кейс писать новый стейт, гениально. вы предлагаете создать натуральную "китайскую комнату", в которой ллм это тот самый "человечек", который "не знает китайского, а действует по прописанным кем-то правилам"

    может лучше все таки "человечка" китайскому научить? ))


    1. NeriaLab
      06.01.2026 09:44

      Люди не думают словами. Не путайте внутреннюю речь с мыслеобразами. Коллега, изучайте когнитивные науки

      В статье верно подметили, что LLM - это всего лишь "говорящий рот". Но важно понимать: в когнитивно-символьных системах (КСС) этот принцип "разделения труда" реализован гораздо глубже и эффективнее, уже 2 десятка лет. "Мысли" (логическое ядро) отделено от обработки текста (модуля интерфейса). Работать с текстом напрямую как с символами - это вычислительный тупик, и КСС это давно прошли.

      Несмотря на то, что я стою на позициях символизма, хочу похвалить авторов статьи. Они подошли к проблеме по-своему, в рамках коннекционизма (LLM), и принятое ими решение - выделить LLM лишь роль "говорящего рта" при "ИИ-агенте" - абсолютно верное. По сути, авторы интуитивно пришли к тому, что в КСС уже давно является стандартом.


      1. Flokis_guy
        06.01.2026 09:44

        Люди не думают словами.

        Даже если это и так, из этого не следует данное утверждение:

        LLM - это всего лишь "говорящий рот"

        Так как несмотря на то, что человек не думает словами, слова могут являться проекцией его мыслей, анализа и т.п. А так как LLM могут это аппроксимировать с любой точностью, то при достаточно качественных данных и их количестве, если можно из них восстановить некоторое мышление - тогда LLM могут "мыслить".


        1. linabesson Автор
          06.01.2026 09:44

          мы здесь имеем в виду, что отнимаем направление ризонинга у ллм, прогоняем его теперь уже через 3 слоя (системы 1 и 2 по Канеману + слой 3, который назвали СуперЭго) мышления архитектуры. На выходе она отдает в ллм состояние системы, из которого и складывается структура ответа. Помогает не глючить-не конфабить, держаться контекста даже на очень долгом сроке)