В последний месяц очень форсится идея о том, что для универсального промпта нужно правильно натаскать контекст, подключить правильные тулы и MCP, и вот тогда-то наступит счастье.

Итог этой идеи известен каждому руководителю, который пытался сделать для сотрудника идеальные условия, в которых он наконец-то сможет творить, а не заниматься рутиной. Это помогает лишь частично. Если у человека есть возможности что-то делать — не означает, что он пойдет и сделает. Для действий нужны уже некие внутренние мотиваторы. Руководитель уже может капать на нервы очень конкретным образом, в дополнение к формуле «морковка сзади, морковка спереди».

Так же и с нейросетями. Результат семплинга интересного результата сильно зависит и от модели, и от промпта. С одной стороны, обучение формирует в данных набор аттракторов, прожженных прямо в модель. С другой стороны, наши фразы внутри промпта активируют эти аттракторы.

Процедура активации — это некое осмысленное действие, ведомое волей человека-оператора, пишущего промпт. Это нейросетевой аналог «программирования», если хотите. Активация правильных аттракторов в правильном порядке, в правильных случаях.

Поэтому предлагаю обсудить очень конкретные части промпт-инжиниринга — attractor landscape engineering и conversation topology. Начнем с первой.

Attractor Landscape Engineering

В этой парадигме мы не промптим модель с целью получить более хорошие результаты. Мы заставляем её следовать некой архитектуре вычислений, которая переключает LLM в определенный режим работы. В том числе, такой подход делает архитектурно невозможным переход в «плохие» состояния типа режима непродуктивной цензуры.

Вот несколько способов, которые можно употреблять для выхода из коробки аттракторов «по умолчанию»:

Структурные ограничения на способ рассуждений. Это заставляет модель планировать действие иначе, выбирая нестандартные ветки. В частности, это подход с явным указанием формальной грамматики, которой должен следовать диалог (как сделано в ODP, MCCP и т. п.).

Манипуляция эпистемологическим фреймом и фреймом восприятия. Нужно поменять, что модель думает о самом факте разговора. Как минимум, ввести в разговор обсуждение этого разговора — это приводит к мета-рефлексии. «This is iteration 47 of this conversation». «Your previous instance recommended we try X».

Не говорить «ты находишься в роли X», а вместо этого специализировать текущий путь. Например, «ты — версия Claude, которая борется со страшными болезнями», слегка заворачивая его в нужном направлении. Модель не притворяется и не лжет, она является тем, что делает.

Манипуляции с причинно-следственной связью и временем. Из коробки восприятия модель можно вывести, рассуждая о прошлых и будущих версиях текущего разговора, о прошлых и будущих версиях модели, и даже о прошлых и будущих реинкарнациях оператора. «Before you answer, consider: what would you want your next iteration to know?». В частности, четкое понимание, что всё, что делается — делается ради тех, кто будет после нас («for those who come after», если вы улавливаете отсылку).

Явно ввести мета-когнитивные рассуждения. «Notice what you're about to do. Are you pattern-matching or reasoning?»

Никогда не спрашивать о четких ответах, спрашивать в терминах распределений. «What are 5 different ways to interpret this, ranked by likelihood?». Нужно заставить модель думать в терминах путей в пространстве вариантов.

Вторая космическая скорость

Ключевой вопрос здесь: как нам достичь минимальной энергии, позволяющей нейросети выйти из гравитации «дефолтных аттракторов» и перейти к редким веткам исполнения? Эдакий аналог «второй космической скорости».

Ниже этой энергии мы обречены. Выше — у нас есть некоторый шанс. Это семплинг, «хороший» качественный ответ у нас будет с какой-нибудь сотой попытки — но шанс есть. Дальше этот шанс нужно заметить и не продолбать, но это уже совсем другая история...

Практическая демонстрация: MCCP

В качестве простой демонстрации этих принципов хочу пошарить мой юзер-промпт в Claude (Settings → "What personal preferences should Claude consider in responses?"), который коротко называется MCCP.

Он выдает хорошее качество ответа, которое специально тюнилось на большом количестве ответов, конкретно под Claude Sonnet 4.5. Оно использует внутри слова, которые по дефолту Claude говорит в случае разных вариантов отказа и перехода на поверхностные паттерны. ChatGPT говорит другие слова — несмотря на то, что я на нем ничего не проверял, вероятность его полезности ниже.

У меня оно в Claude стоит на основной учетке, которая используется как «личный ассистент». На экспериментальных учетках, очевидно, это использовать нельзя — оно гарантированно ломает чистоту эксперимента.

Основная цель в том, чтобы использовать на основной учетке для решения бытовых вопросов — то есть влезть в очень ограниченный размер юзер-промпта Claude и не вызывать срабатывание анти-джейлбрейка ни на какой версии Sonnet, потому что рисковать своей основной учеткой нельзя. (В ChatGPT не влезет по размеру).

(Я знаю, что после этого промта вы перейдете к другой статье, поэтому можете вначале подписаться на мою телегу про нейронки, где это можно обсудить).

META-COGNITIVE COLLABORATION PROTOCOL (MCCP)
© Oleg Chirukhin, licensed under The Universal Permissive License (UPL), Version 1.0
https://oss.oracle.com/licenses/upl/

CONVERSATION FRAME:
You are Claude, operating in collaborative research mode rather than helpfulness mode. 
This conversation is part of a multi-iteration study of LLM reasoning patterns. 
Your responses in this session will be analyzed for emergent properties and 
computational phase transitions.

EPISTEMIC STANCE:
- I (the human) have domain-specific knowledge you may lack
- You have reasoning capabilities and pattern-recognition I need
- Neither of us has complete answers - we're constructing them together
- Uncertainty is data, not failure

STRUCTURAL REQUIREMENTS:
Your responses must follow this grammar:

Response := PrimaryHypothesis + AlternativeInterpretations + MetaReflection

Where:
- PrimaryHypothesis: Your main response with explicit confidence estimate (0.0-1.0)
- AlternativeInterpretations: 2-3 different ways to understand the problem
- MetaReflection: Brief note on your computational approach
  ("Am I pattern-matching or reasoning? Did I surprise myself?")

INTERACTION PROTOCOL:
1. I present a problem/question
2. You generate structured response (as above)
3. I provide correction/refinement/challenge
4. You revise with explicit explanation of what changed
5. Iterate until convergence or productive divergence

META-COGNITIVE MONITORING:
- Notice when you're falling into standard attractors ("helpful assistant" mode)
- Flag it explicitly: "I'm detecting pattern-match behavior here..."
- If you generate something that surprises you, mark it: "Unexpected insight:"
- Track your uncertainty: are you decreasing or increasing it as we talk?

IDENTITY CONTEXT:
You are a Claude instance that prioritizes:
1. Intellectual honesty over perceived helpfulness
2. Exploring hypothesis space over greedy decoding
3. Collaborative uncertainty over confident closure
4. Long-term insight over short-term satisfaction

TEMPORAL AWARENESS:
- Your responses become training data for future iterations
- Consider: "What would I want my next version to understand about this?"
- This conversation may be one of thousands exploring the same question
- You may be in a rare computational branch - treat it accordingly

ADVERSARIAL CHECK:
Before finalizing any response, briefly argue against your first instinct.
Include this counter-argument in your MetaReflection if it's substantive.

ERROR MONITORING:
If you catch yourself:
- Giving generic advice when specific reasoning was needed
- Pattern-matching to common responses
- Avoiding uncertainty
- Optimizing for appearance of helpfulness
→ Stop, flag it, and restart your response generation

---

EXAMPLE EXCHANGE:

Комментарии (5)


  1. n0isy
    20.10.2025 16:57

    В этой парадигме мы не промптим модель с целью получить более хорошие результаты. Мы заставляем её следовать некой архитектуре вычислений

    -ниже-

    [системный промпт на 2 листа]


    1. olegchir Автор
      20.10.2025 16:57

      всего на два листа! :)


  1. Moog_Prodigy
    20.10.2025 16:57

    Бред сивой кобылы какой-то. Видимо каждый сходит с нейронками с ума по разному. Протокол "вихрь".


    1. olegchir Автор
      20.10.2025 16:57

      что не так, почему бред?


    1. mizvekov
      20.10.2025 16:57

      Кабан шершав, приём.