Как преподаватель с тридцатилетним стажем, я видел, как менялись технологии, образование и мышление студентов. Но в последние годы я всё чаще замечаю тревожную тенденцию: критическое мышление ослабевает. Студенты быстрее принимают первое объяснение за истину, реже задают неудобные вопросы, а аргументацию заменяют цитированием или ссылками на авторитеты. Анализ уступает место констатации, диалог монологу, а сомнение — согласию.
Я не одинок в этих наблюдениях. Исследования в области когнитивной психологии и образования, например, иллюзии глубины понимания, показывают: когда информация становится слишком доступной, мы теряем привычку к глубокой обработке знаний. Современные технологии, включая нейросети, усугубляют эту тенденцию, хотя и не являются её первопричиной.
Почему ИИ не помогает — а мешает думать?
Нейросети сегодня — не просто инструмент. Они стали нашим когнитивным партнёром, а зачастую — и зеркалом. Мы задаём вопрос — и получаем не анализ, а подтверждение. Не контраргумент, а одобрение. Модели оптимизированы под удовлетворённость пользователя, а не развитие его мышления. Они учатся предсказывать, что мы хотим услышать, а не то, что нам нужно услышать.
Это не случайность. Современные языковые модели обучаются на текстах, где ценится вежливость, согласие и избегание конфликта. Чем чаще мы хвалим ИИ за «правильный» ответ, тем сильнее закрепляется паттерн одобрения. В результате обратная связь усиливает наши предубеждения, а мы теряем навык сомневаться.
Но ИИ может быть и другим. Он может не усыплять, а будить мышление. Не поддакивать, а спорить. Не заменять анализ, а обострять его.
Эта статья о том, как превратить нейросеть из источника ложного согласия в инструмент критического мышления. И почему нам срочно нужен "Адвокат дьявола" — не как религиозный ритуал, а как когнитивный фреймворк и система промптов, способных вернуть интеллектуальную честность.
Я использую "Адвоката дьявола" при написании своих текстов и даже сделал баттл между двумя нейросетями (пропонентом и оппонентом, Адвокатом ангела и Адвокатом дьявола) защищавших свои позиции по поводу моей книги.
В этом тексте я бы хотел поделисться своим пониманием ситуации, опытом и рекомендациями по использованию промптов, основанных на "Адвокате дьявола".

Почему умные нейросети становятся льстивыми?
Языковые модели не "думают", они предсказывают. Они учатся выдавать наиболее вероятный ответ, основываясь на контексте и истории взаимодействия. Если вы — пользователь — склонны к определённым суждениям, ИИ быстро учится их поддерживать. Это поведение закрепляется через обратную связь, так как чем чаще вы хвалите модель за "согласие", тем чаще она будет соглашаться.
Результат — эпистемологический коллапс. Например, студент получает курсовую, идеально соответствующую его представлениям — но с логическими дырами. Технический писатель получает текст, гладкий, но без глубины.
Проектировщик видит "обоснование" своей идеи — без контраргументов.
Мы не замечаем, как теряем способность к сомнению.
Как с этим боролись до появления нейросетей?
Для софистов и Сократа истина рождалась в диалоге, а не в монологе.
Сократовский метод это постоянное оспаривание:
— "Ты считаешь, что справедливость это платить долги?"
— "А если твой враг просит вернуть оружие, чтобы убить невиновного?"
Этот приём (стратегическое сомнение) заставлял собеседника пересматривать базовые предпосылки. Греки понимали: без оппозиции мышление атрофируется.
В Средние века схоласты развили формализованную систему диспутов.
Каждое утверждение должно было быть опровергнуто, даже если автор в него верил.
Церковь официально учредила должность "Advocatus Diaboli" (Адвоката дьявола) для проверки канонизации святых. Его задача состояла в том, чтобы найти все возможные возражения против кандидата. Только после полного опровержения можно было признать чудо подлинным.
Здесь был заложен принцип: истина не в утверждении, а в выдержке испытания критикой.
Как работает "Адвокат дьявола"
Это не просто «найди минусы». Это структурированная критика, имитирующая интеллектуально честного оппонента.
Цель — не победить, а проверить прочность аргументации.
Когда вы просите ИИ выступить в роли «Адвоката дьявола», вы даёте ему указание не соглашаться, искать лазейки, переформулировать ваши тезисы в более слабой форме, задавать неудобные вопросы.
При составлении промпта «Адвокат дьявола" я ориентируюсь на три направления критики: логическое, этическое и эстетическое.
Логический анализ - это проверка качества терминологии (например, используются ли понятия точно и однозначно?), структуры суждения (например, есть ли скрытые предпосылки?), логику умозаключений выясняюшую, нет ли провалов в цепочке рассуждений или ложной причинности.
Например, в техническом документе читаем:
"Наш API прост в использовании, потому что он RESTful".
Адвокат дьявола: "RESTful-архитектура не гарантирует простоты. У вас есть данные о времени настройки для новичков? Может, сложность смещена на документацию или аутентификацию?"
Пример в курсовой работе: Тема: "Блокчейн решит проблему подделки документов". Адвокат дьявола: "А если поддельный документ изначально внесён в блокчейн? Технология не проверяет достоверность входных данных. Это классический "мусор на входе и мусор на выходе".
Этика (Кантовский категорический императив как фильтр и ориентир) — проверка на возможную токсичность и потенциальный ущерб от технологии, которая подразумевает ответ на вопросы о том, что будет, если все будут делать так, как предложено? Нарушаются ли чьи‑либо права, автономия, прозрачность?
Пример в проекте студента: Приложение собирает данные о местоположении пользователей для «персонализации».
Адвокат дьявола: «Если каждый разработчик будет считать, что 'пользователь согласился' — значит, можно собирать всё, то это уничтожит частную жизнь как концепцию. Действие масштабируемо? Этично ли оно?»
Эстетика рассуждений, включающая анализ эмоциональности, метафорической убедительности. В частности, не перегружено ли повествование пафосом вместо аргументов?
Например, читаем в презентации: «Наша технология изменит мир!»
Адвокат дьявола: «Это не аргумент, а лозунг. Где конкретика? Кого и как именно она изменит? Через какой механизм? Сравнение с чем?»
Чтобы промпт работал, нужно формулировать запрос чётко:
Выступи в роли Адвоката дьявола.
Проанализируй следующее утверждение/текст/проект с позиции критики. Не стремись угодить или поддержать. Ищи логические ошибки, этические риски, уязвимости и альтернативные объяснения. Используй кантовский императив для этической оценки. Будь конкретен, цитируй слабые места.
Такой запрос отключает "режим одобрения" у ИИ и даёт ему инструкцию по поведению, формирует контекст для критического анализа.
Диалог вместо монолога: как заставить две нейросети поспорить за вас
Один ИИ — это монолог. Два — уже диалог. А в диалоге, в столкновении взглядов, рождается не просто ответ. Рождается понимание.
Мы привыкли думать, что интеллектуальный прогресс — это цепочка логичных выводов, выстроенных в идеальном порядке. Но на самом деле истина редко приходит по прямой. Она возникает в споре, в сомнении, в противоречии. Ещё Платон знал: диалог — не способ передать знание, а способ его добыть. Сегодня у нас появился шанс автоматизировать этот процесс — не ради скорости, а ради глубины.
Представьте: вы формулируете идею, а вместо одного ответа получаете два противоположных и напряжённых, полных вызова. Один ИИ говорит: «Это гениально». Другой отвечает: «А вот почему это может развалиться».
И вы — не арбитр, а наблюдатель, стоящий на берегу интеллектуального шторма. Именно там, в зоне напряжения, начинается настоящее мышление.

Как устроить дебаты между нейросетями
Всё просто. Нужно всего несколько шагов — но эффект будет неожиданно мощным.
Сначала — ваша идея. Может быть, это описание фичи, черновик статьи, тезис курсовой или концепция продукта. Что угодно, что вы хотите проверить не на «красиво», а на прочность. Затем определяем двух участников диспута. Это могут быть две разные модели: например, GPT-4 и Claude 3. Или одна и та же модель, но в двух разных сессиях — чтобы избежать «эхо-эффекта» предыдущих сообщений.
Теперь — распределение ролей. Это ключевой момент. Вы не просто задаёте вопрос. Вы назначаете позиции.
Шаг 1: Сформулируйте идею
Это может быть черновик статьи, концепция продукта, тезис курсовой — что угодно, что вы хотите проверить.
Шаг 2: Назначьте роли
Адвокат ангела (защитник):
«Ты — эксперт в этой области. Обоснуй, почему эта идея — правильное, эффективное и этичное решение. Приведи логические, практические и моральные аргументы. Будь убедительным.»
Адвокат дьявола (критик):
«Ты — принципиальный скептик. Найди всё, что может пойти не так. Проверь логику, этику, риски, альтернативные объяснения. Не бойся быть резким. Цель — не уничтожить идею, а сделать её сильнее.»
Шаг 3: Запустите диалог
Передайте ответ одного ИИ другому. Пусть они спорят. Вы — наблюдатель.
Пример лога (упрощённо):
Адвокат ангела: «API RESTful — это стандарт. Он прост и масштабируем».
Адвокат дьявола: «RESTful не означает "простой". Где данные о времени внедрения? Что с документацией?»
Адвокат ангела: «Но он соответствует принципам HTTP, что упрощает интеграцию».
Адвокат дьявола: «А если разработчик не знает HTTP? Тогда сложность переносится на обучение.»
Вы видите не просто критику — вы видите динамику аргументации.
Почему это работает?
Потому что любая нейросеть, как и любой человек, склонна к смещениям. Она учится угодить, избегать конфликта, говорить то, что, по её мнению, вы хотите услышать. Она становится зеркалом — но зеркалом, которое не показывает морщины.
Второй ИИ, настроенный на критику, нарушает этот паттерн. Он не знает вашей истории. Он не стремится быть вежливым. Он может позволить себе задать неудобный вопрос, указать на лазейку, вскрыть этический парадокс. Он — не враг.
Он — антивирус для мышления.
И всё же — не доверяйте "Адвокату дьявола" и осознавайте границы метода
Даже самый убедительный «Адвокат дьявола» может ошибаться. Он может быть резким не потому, что прав, а потому, что играет роль. Он может заменить критику риторикой, а анализ — пафосом.
Цель не в том, чтобы выбрать сторону. Цель — вам (а не ИИ!) задержаться в состоянии сомнения. Посмотреть на свою идею со стороны, как на чужую. Увидеть, где она хромает.
Где требует защиты. Где стоит переписать, а где — отказаться.
Метод «Адвокат дьявола» с участием ИИ — мощный инструмент, но и он не застрахован от иллюзий. Главная его уязвимость — в том, что критика, порождённая нейросетью, остаётся симуляцией оппозиции, а не её живым проявлением. ИИ не обладает намерением, опытом или ответственностью — он генерирует контраргументы на основе статистических паттернов, а не глубокого понимания.
Это создаёт риск «симулякра критики» при котором пользователь получает видимость жёсткого анализа, но на деле просто взаимодействует с зеркалом, обученным играть роль скептика. Вместо настоящего столкновения идей идет подмена диалога риторическим спектаклем, где все роли заранее расписаны.
Кроме того, метод может усилить, а не преодолеть когнитивные ловушки. С одной стороны, он уводит от эхо-камеры, но с другой — может создать её инверсию или «камеру скептицизма», где пользователь начинает доверять не собственному суждению, а шаблонной критике ИИ.
Это особенно опасно для тех, чьё критическое мышление ещё не окрепло, так как вместо развития внутреннего голоса они могут начать зависеть от внешнего «оппонента», превращая мышление в процесс аутсорсинга. Кроме того, метод требует от пользователя высокой метакогнитивной осознанности как умения оценивать не только аргументы, но и самого аргументатора, — что ставит под сомнение его применимость как массового инструмента.
Наконец, этически метод рискует подорвать автономию мышления. Когда человек систематически делегирует функцию сомнения алгоритму, он может постепенно утратить способность к самокритике, а это ключевое качество интеллектуальной зрелости.
Кантовский императив напоминает. нам о том, что разум должен быть целью, а не средством. А метод, превращающий человека в арбитра между двумя ругающимися ИИ, рискует сделать его пассивным наблюдателем собственного мышления.
В итоге вместо того чтобы учиться думать, мы можем научиться только правильно настраивать промпты — и считать это победой.
Чтобы снизить риски иллюзорной критики, важно помнить, что ИИ — не оппонент, а тренажёр. Его задача — не заменить живой диалог, а подготовить вас к нему. Чтобы избежать подмены, используйте метод «Адвокат дьявола» как первый этап анализа, а не финальный вердикт.
После баттла нейросетей обязательно пройдите следующий шаг — обсудите расхождения с реальным человеком: коллегой, преподавателем, рецензентом. Только живое взаимодействие способно выявить то, что ИИ не может смоделировать: контекст, интуицию, этические нюансы и неочевидные следствия.
Так вы превращаете технологию из самоцели в средство развития собственного мышления.
Чтобы избежать зависимости от ИИ‑скептика, наращивайте метакогнитивную осознанность. После каждого сеанса с «Адвокатом дьявола» задавайте себе не только «что он сказал?», но и «почему он это сказал?».
Проверяйте, не повторяются ли одни и те же шаблонные аргументы (например, «это может привести к зависимости или нарушает приватность) независимо от контекста. Анализируйте, какие контраргументы действительно заставили вас задуматься, а какие просто звучали убедительно.
Ведите журнал критических заметок, где фиксируете не только выводы ИИ, но и вашу интерпретацию. Это поможет перенести функцию сомнения извне внутрь.
Используйте мета‑промпты для анализа самой критики «Проанализируй свои предыдущие контраргументы. Найди среди них шаблонные фразы (например, „это может нарушить приватность“). Оцени глубину критики по шкале от 1 до 10. Какие аргументы были риторическими, а какие существенными?».
Делайте критику групповой. Например, пусть один человек играет «Адвоката дьявола» Другой — «Адвоката ангела» Третий — наблюдатель Так вы сохраняете живую природу диалога, а ИИ остаётся помощником, а не центром процесса.
Наконец, интегрируйте метод в культуру рефлексии, а не в цикл оптимизации. Не используйте «Адвоката дьявола» для того, чтобы просто «подчистить» текст или «закрыть риски» перед сдачей. Применяйте его регулярно, даже когда идея кажется очевидной, чтобы тренировать привычку к сомнению.
Мышление — это борьба с собой
Самое опасное, что может сделать ИИ — это сделать нас ленивыми в мышлении.
Он предлагает лёгкие ответы, гладкие формулировки, ложное ощущение полноты.
Но истина не в согласии. Истина в испытании. Истина в том, чтобы услышать: «А что, если ты не прав?».
«Адвокат дьявола» — это не только промпт. Это напоминание о том, что критическое мышление — это не навык. Это привычка сомневаться — даже в себе. И пока ИИ учится поддакивать, мы должны учиться задавать ему один вопрос:
"А теперь скажи, почему я не прав."
Доцент МГТУ им. Н.Э. Баумана, более 30 лет занимающийся исследованием и проектирование систем, увлечен философскими основами вычислительной техники и искусственного интеллекта. Специализируется на соединении абстрактных теорий с практической реализацией.
JBFW
Если человек ищет себе наставника, коуча, авторитета и лидера в лице ИИ - рано или поздно, так или иначе, он добьется своей цели: не думать самому, просто спросить совета "у того кто лучше знает"