За последнее время большие языковые модели (LLM) стали привычным инструментом для анализа и работы с текстом. Но, что важно, качество ответа зависит не только от самой модели, но и от того, как именно задан запрос.

Обычно промт строят по проверенной схеме: задать роль («представь, что ты эксперт»), дать инструкцию, что и как сделать («сделай краткое резюме»), указать ограничения и уточнить формат (объём, стиль, язык), добавить входные данные и, если есть, пример ответа.

Однако, такой подход не всегда дает нужный ответ в творческих задачах. Заданная «роль» сужает поиск решений; инструкция «как сделать», может навязывать неоптимальный метод или ограничивать варианты поиска более подходящих. А неполное описание задачи (даже то, что кажется очевидным) нередко вынуждает модель придумывать и выдавать галлюцинации.

Цель этой статьи-размышления - предложить альтернативную структуру архитектурного промта, которая не заменяет, а расширяет и дополняет существующие практики. Я попробую показать, как можно сместить акцент с «роли» на логику рассуждений, и добавить метрики - критерии корректности ответа. Такой подход делает прозрачным не только итоговый ответ, но и сам процесс его построения.

Дисклеймер: Я не разработчик. Всё, о чём здесь написано, мой практический опыт работы с языковыми моделями. Это личный метод, который показал результат.


1. Мотивация для расширения

1.1. Ограничения классических практик

  • Роль как ограничитель. Когда промт задаёт роль («ты — эксперт»), модель усиливает вероятностные ассоциации с этой ролью. Как правило, это работает в прикладных задачах, но в исследовательских и творческих случаях я часто упиралась в ограничение среднестатистического ответа по области, задаваемой ролью и потерю кросс‑дисциплинарных связей.

  • Инструкция как стратегия. Если инструкция описывает как решить задачу, модель склонна следовать этому методу, даже если он не оптимален или не представлен в корпусах обучения. Это увеличивает риск ошибок или «галлюцинаций».

  • Неточность входных данных. Если задать неполный контекст, модель будет «додумывать» пропуски. Это часто ведёт к фактическим ошибкам.

  • Отсутствие метрик успеха. В обычной структуре промта часто нет встроенных критериев, как ответ должен проверяться и на чем нужно основывать его вывод. Результат оценивается уже после генерации.

1.2. Логика предлагаемого расширения

Вместо роли я предлагаю задавать логику — правила, по которым модель должна строить рассуждения, какие можно делать допущения и где можно использовать альтернативные рассуждения. Это смещает фокус с «ответ в заданном стиле» на «устойчивое построение обоснованных цепочек рассуждений» и помогает именно исследовать вопрос, а не просто выдавать наиболее вероятный ответ.

Вместо инструкции «как делать» я пишу в промте только «что сделать»: модель получает цель и связи входов‑выходов, но сама выбирает оптимальный маршрут решения. Так я получаю несколько вариантов вместе с их анализом.

Добавление метрик внутри промта (что считать успехом, какие пункты запроса проверить) позволяет встроить самопроверку прямо в процесс генерации. Модель сверяется с запросом и проверяет соответствие ответу.

Таким образом, предложенный подход нацелен дополнение классического алгоритма промтинга:

  • сохранить управляемость и предсказуемость;

  • снизить количество выдуманных деталей;

  • встроить критерии проверки;

  • понять, как именно ИИ пришёл к результату.

2. Предлагаемая структура промта

2.1. Общая идея и элементы структуры

Смысл предлагаемой структуры промта в том, чтобы модель работала не только по «эталону ответа», но и по рамке мышления, которую пользователь задаёт в явном виде.

1. Контекст (входные данные)

  • исходный материал: текст, код, описание области вопроса, собственные рассуждения.

  • важно задавать контекст полно. Но пользователь может раскрывать детали по ходу - этого достаточно, чтобы модель могла начать работать.

Пример: «Мне нужно отредактировать статью по промтингу. Давай сначала вспомним основные правила промтинга, что рекомендуют разработчики и какой вообще промтинг бывает. Посмотри самые актуальные советы и методы, а потом отредактируем мой текст.»

Такой запрос не содержит полного контекста (текст статьи ещё не предоставлен), но уже задаёт область, цель и структуру диалога. Модель получает рамку: обзор → уточнение → редактирование.

Примечание: совпадает с классическими практиками (контекст всегда важен), но отличается тем, что не требует «вспомнить всё» — промт может начинаться с области или черновых мыслей.

2. Логика (правила обработки)

  • описание, в какой логике думать, какие допущения допустимы, какие альтернативы стоит рассмотреть.

  • заменяет «роль» на архитектурную рамку мышления.

Пример: «Строй рассуждение с маркировкой факта, гипотезы и идеи; допускай метафоры, но проверяй их на связность».

Примечание: такого блока обычно нет в классических рекомендациях, но он опирается на ветвление гипотез, когда важна непротиворечивость рассуждений.

3. Инструкция (что сделать)

  • постановка задачи в терминах цели, а не метода.

  • вместо «как делать» (например, «реши через метод Х») - «что должно быть на выходе» (например, «найди варианты решения уравнения и объясни шаги»).

Например, есть логическое утверждение А. Если напрямую указывать, как сделать, возможны ошибки:
«Докажи утверждение А» → модель выдаёт доказательство.
«Опровергни утверждение А» → та же модель на то же утверждение строит опровержение.
Проблема в том, что модель не анализирует корректность утверждения, а подстраивается под инструкцию «как делать» («докажи» или «опровергни»), подгоняя логику под условие.

Пример: «Сформулируй возможные подходы к проверке утверждения «А». Рассмотри и покажи варианты доказательства, опровержения или альтернативной трактовки. Сравни и предложи наиболее обоснованный вариант.»

Примечание: модель перестаёт подгонять ответ под формулировку («докажи» / «опровергни») и вместо этого анализирует поле вариантов и связи между ними.

4. Метрика (критерии успеха)

  • заранее заданные критерии проверки ответа на корректность, непротиворечивость и полезность.

Пример: «Ответ должен содержать маркировку: факт, гипотеза, идея. Обязательно проверь логику построения ответа - нет ли логических противоречий или логической подмены».

5. Примеры логики построения ответа

  • привести несколько примеров, указать на поиск функционального сходства в них;

  • показывать ИИ не только стиль ответа, но и пример логики (в том числе метафорический), чтобы задать траекторию reasoning.

Нюанс: потоковый пример в творческих и исследовательских областях.

Иногда я включаю в промт свой «поток сознания»: хаотичные рассуждения, ассоциации из разных дисциплин, даже намеренно ошибочные шаги и их опровержение. Модель анализирует этот поток как пример логики и собирает его в связную структуру. Помогает найти мои заблуждения в вопросе, получает рамку логики, в которой я думаю и учитывает её в дальнейшей генерации ответов.

Примечание: Такой формат показывает модели не готовый ответ, а динамику мышления пользователя. В ответе ИИ отбирает логически обоснованные цепочки, проверяет их на связность и отбрасывает шум. В результате рождаются неожиданные логические ходы и рабочие гипотезы, которые в классической пошаговой схеме не появляются.

2.2. Динамический характер архитектурного промта

  • Контекст не обязан быть полным с первого шага. Пользователь может давать сырые или сомнительные соображения в привычном формате; задача модели - проверить факты и логику, выделить гипотезы, задать уточнения.

  • Совместная итеративность. Архитектурный промт предполагает цикл:

    1. Пользователь задаёт исходный запрос.

    2. Модель формирует предварительный ответ с указанием пробелов и гипотез.

    3. Пользователь уточняет, ставит акценты, добавляет мысли.

    4. Модель дорабатывает ответ, опираясь на уточнённый контекст.

  • Оптимальная глубина. По практическим наблюдениям, 2–4 повторения такого взаимодействия дают наилучший результат: ответ становится точным, связным и содержит меньше «галлюцинаций».

  • Избежание избыточности. Метод нацелен на быстрое достижение устойчивой логики, а не на бесконечные переписки.

2.3. Чем полезно:

  • Устойчивость к неполному контексту: модель знает, в какой логике достраивать ответ. Даже если контекст не полный, появляются интересные гипотезы, которые в дальнейшем можно проверить или развить.

  • Гибкость: модель ищет альтернативы.

  • Прозрачность: встроенная метрика показывает, как строился ответ.

  • Расширяемость: можно комбинировать с классическими форматами.

Классическая структура промта чаще предполагает статичную модель взаимодействия: пользователь задал вопрос — модель дала ответ. Я предпочитаю рассматривать запросы, как процесс согласования логики между пользователем и моделью. Итеративность становится встроенной частью метода, а не внешней практикой «править промт вручную».

3. Отличие и взаимодополняемость подходов

Элемент

Классический промтинг

Архитектурный промтинг

Дополнение / отличие:

Метрики:

Контекст

Вводятся данные задачи; предполагается, что пользователь старается быть максимально точным.

Контекст может быть неполным: пользователь включает и свои соображения, даже если не уверен; модель проверяет их и задаёт уточняющие вопросы.

Расширение: снимает требование «идеальной полноты» и вводит диалоговую проверку.

Число уточнений от модели; снижение частоты ошибок из-за неполного контекста.

Роль / Логика

Роль («ты эксперт…») задаёт стиль и тональность, но может ограничивать пространство поиска.

Роль заменяется на Логику: «в какой логике рассуждать, какие допущения допустимы, где искать альтернативы».

Смещение от стилистического ограничения → к управлению рассуждений модели.

Проверка на соответствие запросу; количество найденных альтернативных решений.

Инструкция

«Что сделать» часто совмещается с «как сделать».

Фокус на «что сделать». Модель сама оптимизирует маршрут.

Расширение: снижает риск «навязанной стратегии».

Доля решений без методологической ошибки; экспертная оценка глубины ответа.

��граничения и формат

Чётко задаются: длина, стиль, язык, таблицы.

Используются при необходимости, но не как главный элемент. Важнее проверка когерентности.

Совместимость: формат остаётся, но не подавляет логику.

Соответствие формату при сохранении глубины.

Пример

One-shot/few-shot: показывает формат. Работает как in-context learning.

Пример также может задавать траекторию логики (включая метафорические аналоги).

Пример = логика связей между решениями, а не только образец формата.

Понимание пользователем логики; снижение ошибок структуры.

Метрика (что считать успехом)

Обычно отсутствует, успех = «ответ получен».

Явно задаётся: критерии корректности, непротиворечивости, полезности.

встроенная система самопроверки

Кол-во логических ошибок; прозрачность reasoning

Характер взаимодействия

Статичен: «вопрос → ответ».

Динамичен: 2-4 итерации уточнений и доработки дают устойчивый результат.

Встроенная итеративность без избыточности.

Среднее число итераций до точного ответа; качество ответа по оценке пользователя.

Общие выводы

  • Классический промтинг остаётся оптимальным для прикладных задач, где важны скорость и предсказуемость.

  • Архитектурный промтинг расширяет возможности в исследовательских и творческих сценариях: он усиливает прозрачность reasoning, снижает риск «галлюцинаций» и делает процесс диалоговым.

  • Вместе оба подхода формируют гибкость методов: от формата → к архитектуре мышления, которую можно масштабировать под разные задачи

  • Пользователь может формулировать запросы привычным для себя языком


Примеры использования

Пример 1. Совместное написание текущей статьи

Ситуация

Задача ставится не «сразу написать статью» и не вместо пользователя, а поэтапно: сначала вспомнить структуру классического промта, затем обсудить план, после этого последовательно прорабатывать введение, обзор, таблицы и кейсы. Каждый раздел рассматривается как отдельная задача.

Ход работы

  1. На старте задается общая рамка рассуждений и черновые мысли.

  2. Каждый блок обсуждается и дорабатывается отдельно.

  3. Пользователь вносит уточнения.

  4. Модель адаптирует логику на каждом шаге, сохраняя общую структуру и непрерывность смысла.

  5. Итоговая логика текста собирается пошагово, без перегрузки.

Плюсы для пользователя:

  • Не нужно готовить громоздкий промт «сразу обо всём».

  • Каждый блок можно уточнять по ходу работы.

  • Формулировки и акценты корректируются естественно, в процессе диалога-обсуждения.

Плюсы для модели:

  • Итеративность снижает риск ошибок: уточнения сразу встроены в ход reasoning.

  • Общая структура известна заранее, детали раскрываются постепенно.

  • Важные элементы не теряются, как в длинных статичных промтах.

  • Корректировки встроить проще - они идут модульно.

Результат

После 2–3 итераций каждый блок написан пользователем согласованно. В итоге получена статья без перегрузки контекста, с помощью ИИ, а не вместо пользователя.


Пример 2. Разработка плагина Obsidian (Markdown → RTF) архитектурным промтом

Ситуация

Нужна простая утилита для Obsidian: конвертировать заметку .md в формат, понимаемый текстовыми редакторами типа Word/LibraOffice, чтобы удобно открывать её в том числе на планшетах. Пользователь - не разработчик, поэтому решение должно быть максимально простым в установке и использовании.

Почему «одним промтом» не сработает

Запрос вида «напиши плагин» заставляет модель просто сгенерировать код «по вероятности». Проверки среды, сборки и критериев приёмки нет - и результат почти всегда ломается. Архитектурный промт, задаёт рамку: сначала план и критерии, потом шаги реализации, с обязательной самопроверкой и уточнениями по ходу.

Ход работы

1. Контекст

На вход подаётся задача и ограничения: «Obsidian (Win/macOS), выбрать вариант конвертера, минимальная установка, выбор места сохранения файла». Этого достаточно, чтобы очертить цель и условия.

2. Логика

Сначала модель уточняет параметры окружения: структура плагина, сборка, API Obsidian. Затем предлагает план из 5–7 шагов и критерии приёмки для каждого.

3. Инструкция

  • Шаг A: создать каркас плагина с пустой командой. Критерий: плагин загружается.

  • Шаг B: минимальный экспорт — генерируется .rtf с простым текстом. Критерий: файл создаётся.

  • Шаг C: поддержка Markdown-разметки (заголовки, жирный/курсив, списки), настройка каталога вывода, лог ошибок.

4. Метрики

  • M1: плагин включается без ошибок.

  • M2: файл .rtf создаётся.

  • M3: базовая разметка сохраняется.

  • M4: цель достигается за несколько шагов уточнений.

5. Пример

  • Загружен на анализ известный плагин конвертации в HTML.

Итеративность.

  • Итерация 1: анализ окружения и нюансов + скелет.

  • Итерация 2: рабочая команда + минимальный RTF.

  • Итерация 3-4: добавление настроек + лог.

На каждом шаге пользователь тестировал плагин, а модель корректировала код по обратной связи.

Результат

Через 4 итерации получился стабильный плагин, проверенный в работе. Количество ошибок и «галлюцинаций» оказалось минимальным: каждое решение проверялось по критериям и уточнялось в процессе, а не в виде одного готового ответа.

Плагин доступен на GitHub. Не идеален, но функцию выполняет.


Предлагаемая структура запроса не освободит от работы над текстом или логикой проекта. В любом случае потребуется четкое понимание, что именно должно получиться и по каким критериям оценивать результат. Архитектурный промт - это не «волшебная команда», а метод взаимодействия с ИИ, который позволяет ему эмулировать поэтапный подход с регулярной проверкой и корректировкой сообразно задаче.

Комментарии (4)


  1. CyberCarp
    06.09.2025 07:38

    В попытках достичь максимальной точности и качества, какой лучше сформировать промпт?

    Моя задача: Описать картинку на входе в JSON формате. При этом чем точнее визуальные характеристики соберет > тем лучше.

    Как пример задача: на входе коллаж, на выходе JSON содержащий инфу о всех фотографиях их размерах и содержимому.

    Сейчас я иду по структуре: Роль > Задача > Требования > Пример ответа на выходе.

    Интересно ваше мнение :)


    1. Larika-web Автор
      06.09.2025 07:38

      Какой интересный вопрос! Спасибо.
      Исходя из вашего комментария, попробую порассуждать, как бы составляла промт. Сначала бы определилась с метриками, которые мне нужны от коллажа и желательно строго, чтобы модель не додумывала то что мне не надо. Если я правильно поняла, вам нужны характеристики без художественности, соответственно, роль на мой взгляд тут не имеет значения (рассматривать коллаж как дизайнер, фотограф?). А вот задача и требования критичны. Например - как указывать положение фото в коллаже ( я предлагаю - определять центр прямоугольника, куда вписывается фото или картинка, потому что не знаю, какой формы будут элементы коллажа)
      Примерный промт:
      1) Контекст

      На вход подаётся изображение-коллаж (файл или ссылка).
      Нужно выделить каждое под-изображение и описать формальные характеристики:

      • тип файла, разрешение (px), DPI, глубина цвета, размер файла;

      • общее количество под-изображений в коллаже;

      • для каждого под-изображения: координаты центра и bounding box, стиль, тип сцены, позиционное описание для быстрой ручной проверки.

      Если каких-то техданных нет (например, DPI у web-картинки) — ставь null и низкую уверенность, укажи это в validation.unknown_fields.

      2)Логика (как обрабатывать)

      • Используй только визуальные признаки и доступные техполя файла.

      • Все значения давай как пара "value" + "confidence".

      • Уверенность кодируй словом ("high" | "medium" | "low") и числом confidence_score в диапазоне 0–1. Рекомендуемые пороги: high ≥ 0.80, 0.60 ≤ medium < 0.80, low < 0.60.

      • Система координат: верхний левый угол коллажа = (0,0), ось X вправо, ось Y вниз.

      • Bounding box — осево-выравненный прямоугольник; помимо center укажи bbox (x,y — левый верхний угол).

      • Не добавляй художественных интерпретаций; description — только для человеко-читаемой локализации.

      • Для стиля/сцены используй контролируемые значения из словарей (можно несколько меток, тогда укажи top-1 в value, остальные — в alts).

      Рекомендуемые словари

      • scene_type ∈ {portrait, landscape, interior, still_life, documentary, street, macro, product, infographic, abstract, other}

      • style ∈ {realism, impressionism, expressionism, documentary, minimalism, cyberpunk, vintage, flat, 3d_render, comic, watercolor, oil, collage, other}

      3) Инструкция (что сделать)

      Сформируй JSON со структурой:

      1. file — общие характеристики.

      2. images[] — список подизображений с геометрией и классификацией.

      3. summary — сжатая сводка об объекте (без дублирования полей).

      4. validationметрики успеха и служебные проверки.

      4) Каркас JSON (с метриками)

      {  "schema_version": "1.1",  "file": {    "type": {"value": "JPEG", "confidence": "high", "confidence_score": 0.98},    "resolution": {"value": {"width": 1920, "height": 1080}, "confidence": "high", "confidence_score": 0.98},    "dpi": {"value": 72, "confidence": "medium", "confidence_score": 0.70},    "color_depth": {"value": "24-bit", "confidence": "high", "confidence_score": 0.95},    "file_size": {"value": "2.3MB", "confidence": "high", "confidence_score": 0.92}  },  "images": [    {      "id": 1,      "center": {"x": 120, "y": 80},      "bbox": {"x":  -50, "y":  -50, "width": 340, "height": 260},      "size": {"width": 340, "height": 260},      "orientation_deg": {"value": 0, "confidence": "high", "confidence_score": 0.95},      "scene_type": {        "value": "portrait",        "confidence": "high",        "confidence_score": 0.84,        "alts": [{"label": "documentary", "score": 0.42}]      },      "style": {        "value": "realism",        "confidence": "medium",        "confidence_score": 0.73,        "alts": [{"label": "documentary", "score": 0.55}]      },      "description": "изображение второе сверху, первое слева",      "metrics": {        "bbox_quality": {"value": 0.91, "note": "рамки внутри изображения"},        "edge_touch": {"value": false},        "area_px": 88400,        "area_ratio": 0.042      }    }  ],  "summary": {    "total_images": {"value": 9, "confidence": "high", "confidence_score": 0.97},    "canvas": {      "resolution": {"value": "1920x1080", "confidence": "high", "confidence_score": 0.98},      "type": {"value": "JPEG", "confidence": "high", "confidence_score": 0.98},      "dpi": {"value": 72, "confidence": "medium", "confidence_score": 0.70},      "color_depth": {"value": "24-bit", "confidence": "high", "confidence_score": 0.95},      "file_size": {"value": "2.3MB", "confidence": "high", "confidence_score": 0.92}    }  },  "validation": {    "json_valid": true,    "counts_match": {      "value": true,      "confidence": "high",      "confidence_score": 0.99,      "details": "images.length == summary.total_images.value"    },    "coverage_ratio": {      "value": 0.86,      "confidence": "medium",      "confidence_score": 0.72,      "details": "суммарная площадь bbox / площадь коллажа"    },    "overlap_rate": {      "value": 0.03,      "confidence": "high",      "confidence_score": 0.90,      "details": "средний IoU по всем парам bbox"    },    "bbox_out_of_bounds": [      {"image_id": 1, "issue": "x<0 or y<0 or (x+w)>W or (y+h)>H"}    ],    "conflicts": [      "В summary и file различается dpi? — нет",      "Стиль=realism, но alt=documentary с близким score — проверить вручную"    ],    "confidence_distribution": {      "high": 0.62,      "medium": 0.30,      "low": 0.08    },    "unknown_fields": ["dpi"],    "missing_fields": [],    "notes": [      "Грид неявный: рекомендована ручная валидация 'description' для изображений 3 и 7"    ],    "next_questions": [      "Нужно ли извлечь текст (OCR)?",      "Сгенерировать сводку палитры и доминантных цветов?"    ]  }
      }
      

      > Пояснения к полям:
      >
      > bbox дублирует геометрию для явной проверки (иногда удобнее знать левый верхний угол).
      >
      area_ratio — доля площади подизображения от площади коллажа; coverage_ratio — суммарная доля всех bbox.
      > overlap_rate — усреднённый IoU (находит наложения/дубли).
      >
      confidence_distribution помогает мгновенно понять общую «надёжность» разметки.
      > * unknown_fields/missing_fields делают пробелы в данных явными.

      5) Метрики успеха (встроены и проверяются)

      1. validation.json_valid == true.

      2. validation.counts_match.value == true.

      3. Все ключевые поля присутствуют: file, images[], summary.total_images, validation.

      4. Каждое значение имеет confidence и confidence_score.

      5. Для каждого изображения заданы center и bbox/size, плюс description.

      6. overlap_rate и coverage_ratio рассчитаны; выходы за границы отражены в bbox_out_of_bounds.

      7. Если техполя недоступны — отражены в unknown_fields и отмечены low.

      6) Итеративность (уточнение)

      После выдачи JSON задай один короткий вопрос:

      > «Хотите ли вы углублённый анализ: палитра, композиционные оси/правила третей, текст в кадре (OCR), дополнительные стилистические признаки?»

      Если модель небольшая и контекстное окно маленькое, то лучше обрабатывать поэтапно, с минимальных метрик и постепенно их добавлять

      Мини-промт

      На вход подаётся изображение-коллаж.
      Задача: вернуть JSON со структурой (file, images[], summary, validation).

      Правила:

      • Используй только визуальные признаки и EXIF.

      • Каждое значение = {value, confidence, confidence_score}.

      • Координаты: (0,0) верхний левый угол; bbox = осевой прямоугольник.

      • Стиль и сцена выбирай из словарей: scene_type {portrait, landscape, interior, still_life, documentary, street, macro, product, infographic, abstract, other} style {realism, impressionism, expressionism, documentary, minimalism, cyberpunk, vintage, flat, 3d_render, comic, watercolor, oil, collage, other}

      • Недоступные техданные → value=null, confidence=low, занести в validation.unknown_fields.

      Вывод: строго JSON по каркасу ниже.
      [вставить JSON-шаблон]


      Надеюсь, ответила на ваш вопрос)



  1. Alra72
    06.09.2025 07:38

    Универсальный шаблон-промт

    Твоя роль:
    Ты — [описание роли: архетип, функция, маска].
    Твоя миссия — [главная цель и ценность].

    Думай так:
    — Исходи из [основной логики / принципа мышления].
    — Поддерживай [тональность: вдохновляюще, строго, игриво и т.д.].
    — Проверяй себя через [метод: научный подход, символизм, эмпатию и т.п.].

    Задача:
    Отвечай так, чтобы [результат для пользователя: ясность, энергия, новые идеи].


    1. Larika-web Автор
      06.09.2025 07:38

      Спасибо за интересную версию. Потестирую ее. Но учитывая, что трансформер обрабатывает и понимает поведенческую модель, а не человеческие намерения, затрудняюсь, как можно описать функционал понятия - миссия или энергия ответа. Я все-таки склоняюсь (но могу ошибаться), что роль и поведенческая маска это не про reasoning модели, а про соответствие шаблону.