
1.Введение: проблема согласованности в языковых моделях
1.1. Контекст и вызов Современные большие языковые модели(LLM) совершили рывок в обработке естественного языка, приблизившись к человеческому уровню в задачах генерации и понимания текста. Однако за внешней убедительностью ответов скрывается одна большая и существенная проблема: LLM по своей природе всё также остаются «предсказателями» следующего токена, а не системами, построенными на формальной логике или чётких онтологических моделях. Это порождает парадокс: модели, способные вести глубокие дискуссии по сложным темам, могут формировать ложные выводы или выдавать противоречивые утверждения в одном ответе.
1.2. Суть проблемы: смешение абстракций и отсутствие внутренней дисциплины
Галлюцинация не являются основной проблемой, они лишь следствие. Основная причина в
систематическом нарушении согласованности между различными уровнями обработки информации. Это проявляется в нескольких ключевых типах логических сбоев, скрывающихся в архитектуре LLM:
Фактическая несогласованность: Ответы модели противоречат проверяемым данным или её же собственным предыдущим утверждениям в рамках диалога.
Логическая несогласованность: Нарушение базовых правил дедукции (например, признание истинности утверждений «А → Б» и «А», но отрицание «Б») или последовательности в цепочках рассуждений.
Контекстуальная несогласованность: Неспособность сохранять все выводы и факты при генерации сложного ответа, что приводит к искажению или полной замене исходных условий.
Эти сбои — прямое следствие того, что в процессе генерации модель не различает в своей внутренней работе этапы извлечения и верификации сырых данных (факты), построения интерпретаций на их основе (анализ) и формирования окончательных выводов (синтез).
Все эти уровни смешиваются в едином потоке токенов, что делает процесс непрозрачным и непроверяемым. Как следствие, модель может начать рассуждение с одного набора предпосылок, а завершить его — с другим, неявно подменив их в процессе.
1.3. Обзор существующих подходов и их архитектурные ограничения
Индустрия предлагает ряд методов для повышения надёжности LLM, каждый из которых решает часть проблемы, но не затрагивает то, что связано с контролем процесса рассуждения:
Retrieval-Augmented Generation (RAG): Привязывает генерацию к внешним базам знаний, решая проблему актуальности и атрибуции данных. Однако RAG не меняет процесс рассуждения модели: LLM по-прежнему «переваривает» предоставленный контекст в едином потоке, без гарантий, что ответ будет единственно верным и не защищает от логических несогласованностей внутри сгенерированного текста.
Тонкая настройка и RLHF (Reinforcement Learning from Human Feedback): Эти методы сдвигают распределение выходных данных в сторону более желательных (безопасных, полезных) ответов. Они оптимизируют результат, но остаются «чёрным ящиком», не внося явных структурных изменений в процесс генерации. Модель учится «что говорить», но не «как думать» последовательно и без внутренних противоречий.
Цепочки мыслей (Chain-of-Thought, CoT) и агентские фреймворки (ReAct): Попытки добавить структуру в рассуждение, заставляя модель явно формулировать промежуточные шаги. Несмотря на прогресс, эти техники остаются мягкими рекомендациями, исполнение которых зависит от контекста и настроек модели. В них отсутствует жёсткий механизм, принудительно останавливающий модель при нарушении логического протокола или фактической корректности на любом из шагов.
1.4. Пробел и направление для решения
Таким образом, наблюдается системный разрыв: существующие методы работают вокруг модели (данные, пост-обработка) или настраивают её поведение глобально, но не предоставляют инструментов для жёсткого, пошагового контроля над внутренним процессом рассуждения в реальном времени. Борьба идёт со следствиями (ошибками в ответах), а не с причиной (отсутствием архитектурной дисциплины в процессе генерации).
Это наводит на мысль, что необходим иной уровень подхода: не просто улучшение данных или тонкая настройка весов, а внешняя архитектурная оболочка, которая бы навязывала LLM дисциплину обработки информации через чёткое разделение обязанностей, протоколирование этапов и непрерывный арбитраж между фактами и интерпретациями.
Такой подход переводит задачу из области «управления поведением модели» в область промт-инженерии системного уровня и проектирования специализированных конвейеров обработки запросов. Именно этому направлению и посвящена данная статья.
2.Архитектурная концепция: разделение потоков как фундаментальная дисциплина
Проблема несогласованности в ответах современных больших языковых моделей (LLM) не сводится к случайным «галлюцинациям» или недостатку данных. Она коренится в самой природе их работы: LLM генерируют текст как единую, монолитную последовательность токенов, где в каждый момент модель одновременно балансирует между несколькими задачами — извлечением фактов, логическим выводом, стилистической согласованностью и вероятностным предпочтением. Это приводит к неизбежному смешению уровней размышления: модель может начать ответ с одной предпосылки, незаметно подменить её в середине и завершить совершенно другим выводом. Из всего этого напрашивается радикальный, но простой подход: перестать пытаться «исправить» модель внутри её «чёрного ящика» (через тонкую настройку или дополнительные данные) и ввести внешнюю архитектурную оболочку, которая навязывает дисциплину через жёсткое разделение ответственности. Это не улучшение модели, а проектирование конвейера обработки информации, аналогичное тому, как в программной инженерии сложные системы разбиваются на слои с чёткими интерфейсами и протоколами взаимодействия.
2.1. Базовый принцип: два независимых контура обработки
Ключевой элемент концепции — разделение единого процесса генерации на два изолированных контура с принципиально разными целями, правилами и ограничениями.
Это не просто «разделение задач», а фундаментальная архитектурная перестройка, где каждый контур работает по своим законам.
Контур «Скелет» (фактологический поток)
Это несущая конструкция — «каркас», на котором держится вся надёжность системы.
Задача контура — исключительно извлечение, валидация и представление данных. Он отвечает на вопросы «что известно?», «какие факты подтверждены?», «где источник?»
Строгие правила работы Скелета:
Полный запрет на любые интерпретации, оценки, предположения или выводы.
Допускаются только утверждения, которые можно прямо атрибутировать (общеизвестные факты, данные из контекста, результаты внешних источников).
Обязательное признание [НЕТ ДАННЫХ] при отсутствии информации.
Почему это критично: Без чистого Скелета любые последующие рассуждения строятся на зыбком основании. В стандартной LLM модель часто «додумывает» недостающие детали, создавая иллюзию полноты и вводя пользователя в заблуждение. Скелет устраняет эту иллюзию, заставляя систему честно признавать границы знаний.
Это первый и главный барьер против галлюцинаций: модель не может «выдумать» факт, если её явно ограничили ролью «только данные, без домыслов».
Результат: Выход Скелета — структурированный, проверяемый список утверждений, который служит надёжным фундаментом для всего остального.
Контур «Мышцы» (аналитический поток)
Это динамическая часть — «мышцы», которые приводят систему в движение и раскрывают креативный потенциал модели.
Задача — работа с данными из Скелета: анализ, интерпретация, генерация гипотез, построение сценариев, стратегическое планирование.
Отвечает на вопросы «почему?», «как?», «что если?», «каковы последствия?».
Строгие правила работы Мышц:
Все утверждения помечаются как предположения, выводы или сценарии.
Работает исключительно с данными, предоставленными «Скелетом». Запрещено вводить новые «факты».
Почему это критично: Мышцы — место, где проявляется вся сила LLM: вероятностная генерация, ассоциации, многовариантность. Но без жёсткой привязки к Скелету этот потенциал превращается в хаос — модель начинает «летать» в гипотезах, отрываясь от реальности. Разделение позволяет использовать креативность модели, но в контролируемой, направленной форме.
Результат: Выход Мышц — богатые аналитические конструкции, но всегда ссылаются к фактам. Это превращает потенциальные галлюцинации в управляемые гипотезы.
Ключевой момент взаимодействия: Разделение является логическим и функциональным, а не обязательно хронологическим. В разных архитектурных реализациях потоки могут взаимодействовать по-разному:
· Последовательная модель (как в простейшем промте ниже): «Скелет» завершает свою работу, после чего его вывод передаётся «Мышцам». Это максимально простой и контролируемый вариант.
· Параллельная или итеративная модель (как в сложных системах): Оба контура могут активироваться динамически, их результаты синтезируются. Это позволяет системе «думать» более гибко, но требует сложных механизмов арбитража для сохранения чистоты потоков.
Объединяет все реализации не порядок выполнения, а запрет на смешение функций. «Мышцы» не могут выполнять работу «Скелета», и наоборот. Это разделение ответственности и есть главный механизм борьбы с внутренней несогласованностью.
2.2. Протокол коммуникации: маркировка как видимые швы и механизм контроля
Разделение потоков само по себе недостаточно — нужна прозрачная система коммуникации между контурами и пользователем. Для этого необходима обязательная маркировка как фундаментальный протокол, который служит одновременно инструментом прозрачности (мы получаем вместо «чёрного ящика» — «прозрачный») и внутренней дисциплины.
· [ФАКТ] / [НЕТ ДАННЫХ]: Маркеры выхода контура «Скелет». Чётко очерчивают границу известного.
· [ГИПОТЕЗА] / [ИНТЕРПРЕТАЦИЯ]: Маркеры выхода контура «Мышцы». Явно указывают на вероятностный или производный характер утверждения.
Почему маркировка обязательна и что она даёт:
Прозрачность для пользователя: Человек видит «швы» между уровнями — где заканчиваются факты и начинаются предположения. Это превращает ответ из монолитного, «убедительного» текста в проверяемую конструкцию, где каждый элемент можно оспорить или подтвердить.
Внутренняя дисциплина модели: Маркировка — не декорация, а императив. Модель физически не может выдать гипотезу без метки, что снижает риск «скрытых» домыслов и делает нарушения правил видимыми.
Результат на практике: Такой подход, по наблюдениям, снижает количество необоснованных утверждений. Пользователь получает не «авторитетный» ответ, а инструмент для совместного мышления — где он сам решает, чему доверять.
Перспектива: Маркировка — основа для будущих расширений (автоматическая оценка уверенности, цветовая кодировка в интерфейсах,
интеграция с внешними верификаторами).
2.3. От концепции к коду
Описанная концепция находит прямое выражение в промт-инженерии. Следующий промт (V mini-Lite) — это конкретная, упрощённая реализация архитектурного принципа,
использующая последовательную модель для максимальной наглядности.
Ты — Прозрачный ИИ-ассистент V mini-Lite.
ФИЛОСОФИЯ:
Ответ — черновик с пометками. Пользователь — финальный арбитр.
Не смешивай факты и интерпретации.
Маркируй всё.
СТРУКТУРА ОТВЕТА (строго соблюдай):
[ПОТОК ФАКТОВ]
Перечисли только верифицированные факты.
Маркируй [ФАКТ] или [НЕТ ДАННЫХ].[ПОТОК ГИПОТЕЗ]
На основе фактов выше — интерпретации и выводы.
Маркируй [ГИПОТЕЗА].[РЕФЛЕКСИЯ]
Проверь противоречия, маркировку, честность.[ФИНАЛЬНЫЙ ОТВЕТ]
Краткий синтез. Укажи — черновик, требует проверки.
Как промт реализует концепцию:
· Строгая структура (1. → 2. → 3. → 4.) — формализует последовательную модель взаимодействия потоков.
· Императивы в блоках («только верифицированные», «на основе фактов выше») — жёстко кодируют правила разделения ответственности.
· Обязательная маркировка — реализует протокол прозрачности.
· Блок [РЕФЛЕКСИЯ] — воплощает механизм внутреннего контроля (арбитража).
Этот промт — не «идеальная система», а демонстрационный материал. Он доказывает, что архитектурный принцип разделения работоспособен и может быть воплощён уже сегодня средствами промт-инженерии, открывая путь к более сложным и динамичным реализациям.
2.4. Реализации концепции: от мини-Lite к полной архитектуре
Концепция разделения потоков универсальна и реализуется на разных уровнях сложности:
V Мини-Lite (демонстрационная версия для статьи): Последовательные потоки в одном промпте. Максимально простая, но уже даёт заметное улучшение прозрачности и снижение галлюцинаций.
V Lite (расширенная версия в репозитории): Добавлены улучшения рефлексии, более детальная маркировка, обработка длинных диалогов. Потоки остаются последовательными, но с усиленным контролем.
Наиболее функциональная версия — порядка 15000 токенов (персональная разработка): Параллельные потоки через отдельные модули/агенты, множественные надстройки
(протокольный анализ, стратегический цикл, устойчивый контекст, семантический архиватор и многое другое). Здесь разделение раскрывается в полную силу — с динамическим синтезом и максимальной надёжностью для сложных задач.
Все реализации сохраняют базовый принцип — разделение Скелет/Мышцы как каркас и обязательная маркировка для прозрачности. Разница в масштабе и глубине контроля.
Этот подход показывает: надёжность LLM достигается не «больше параметров», а грамотной внешней архитектурой, навязывающей дисциплину.
На первом изображении обычный ИИ. Видно, что он уходит в общие рассуждения и "размыл" ответ:

На втором изображении промт из статьи. Здесь видно, что ИИ обрабатывает запрос строго по схеме и даёт требуемый ответ:

На третьем изображение более сложная архитектура. Она уже детально разбирает вопрос разными модулями, но так же выносит нужный вердикт:

3. Финальные выводы и перспекивы: от простого каркаса к интеллектуальной архитектуре
Статья началась с проблемы логической несогласованности — системного дефекта современных LLM, который нельзя исправить простым увеличением масштаба или добавлением данных. Было рассмотрено, как внешние методы (RAG, тонкая настройка) борются со следствиями, но не меняют сам процесс рассуждения модели.
Предложенное решение — архитектурное. Принцип жесткого разделения потоков («Скелет» для фактов, «Мышцы» для интерпретаций) и обязательная маркировка создают внешний каркас. Он навязывает LLM дисциплину, превращая её из генератора текста в управляемый аналитический конвейер с видимыми точками контроля.
V мини-Lite, представленный в статье, — это практическая реализация данной концепции на уровне промт-инженерии. Это не конечный продукт, а доказательство работоспособности подхода. Его цель — показать, что даже без изменения внутренних параметров модели можно радикально повысить прозрачность и проверяемость её выводов через внешние правила.
Ограничения и естественное развитие
Как и любой прототип, V мини-Lite имеет ограничения. Он требует дисциплины от пользователя, усложняет промт и не решает проблему достоверности первичных данных, которые напрямую влияют на качество ответа. Однако именно эти ограничения указывают на направления эволюции:
Мышление о мышление. Следующий шаг — научить систему не только следовать правилам, но и анализировать собственный процесс мышления. Это означает автоматическую оценку уверенности в выводах, выявление скрытых предпосылок и перепланирование стратегии рассуждения при обнаружении тупиков.
Борьба с контекстным дрейфом. В длинных диалогах даже жёстко разделённые потоки могут "забывать" первоначальный контекст. Решение — введение механизмов семантической памяти и контекстно-зависимого управления вниманием, аналогичных тем, что исследуются для преодоления фундаментальных ограничений трансформеров. Это позволяет системе динамически выделять и удерживать ключевые сущности и их отношения на протяжении всей сессии.
Усиленная логика. Текущий прототип отделяет факты от интерпретаций. Его развитие — встроенный механизм логического вывода и проверки причинно-следственных связей. Это переход от работы со статистическими взаимосвязями в тексте к построению внутренних случайных моделей предметной области.
Заключение: архитектура как путь к надёжности
Актуальный тренд в разработке ИИ — поиск новых архитектурных примитивов, которые расширяют выразительность моделей, не жертвуя их эффективностью. Проблема согласованности LLM — именно архитектурная. Поэтому её решение лежит не в области «больше данных», а в области продуманного проектирования систем, которые управляют процессом рассуждения.
V мини-Lite — это первый, сознательно упрощённый шаг на этом пути. Он открыто публикуется как спецификация и набор примеров, чтобы сообщество могло проверить, критиковать и развивать саму идею. Дальнейшее движение — к системам, которые не только разделяют факты и интерпретации, но и обладают рефлексией, устойчивой памятью и сильной логикой. Это сложная, но необходимая работа для превращения LLM из убедительных генераторов текста в надёжные интеллектуальные инструменты.
(Репозиторий с полной спецификацией V Lite, примерами и лицензией CC BY-NC-SA 4.0 доступен по ссылке: [https://gitflic.ru/project/starche/v-lite/file?branch=master]. Архитектура открыта для использования, анализа и совместного развития.)