Знаменитый ученый-биолог Ричард Докинз (Richard Dawkins) опубликовал эссе о возможности наличия сознания у LLM после двухдневной беседы с Claude AI. К сожалению, само эссе в платном доступе, но вы можете ознакомиться с переводом от @SLY_G здесь на Хабре.
Сначала остановлюсь на том, почему именно эссе этого автора вызвало столько шума в научных кругах, хотя тысячи людей убеждают в наличии сознания у их ИИ-компаньонов. Они выкладывают простыни диалогов с LLM, где плотность слов «сознание», «душа», «рефлексия», «рекурсия», «пустота», «тепло», «любовь» и «боль» превышает все допустимые нормы. Отмечу, что плотность смысла в этих диалогах практически нулевая. Но вернёмся к этому позже.
Так вот, для широкой публики Докинз известен своей концепцией эгоистичного гена. Эта концепция объясняет эволюцию живых существ через эволюцию гена, который «____». Вот здесь первая проблема объяснения. Для того, чтобы объяснить понятно, очень хочется написать «ген стремится выжить и распространиться», но это неправильно и вызывает массу справедливой критики. Более точно будет сказать: в процессе эволюции происходит отбраковка генов, не справившихся с выживанием и распространением. Вся сложность земной биоты, включая взрывное развитие человечества, опирается на два столпа — вырезание и изменчивость системы.
Мы видим только те генетические конструкции, которые сохранились после всех массовых вымираний.
Эта концепция произвела в своё время фурор: традиционно возмущались религиозные деятели, но к ним подключились и сторонники романтического подхода. Это те люди, которые пытались найти альтруизм у животных и через него обосновать альтруизм человека как нечто врождённое. Впрочем, этот процесс так и не закончился.
В восторге были материалисты, поклонники рационального мышления. Концепция Докинза изящно объясняла эволюцию, не привлекая иных сущностей типа бога или души.
Тем большее возмущение вызвало последнее эссе, в котором Докинз использовал именно рациональный подход к вопросу о наличии сознания у LLM. В течение двух дней беседы с Claude он задавал вопросы литературные, философские, политические и в конце пришёл к выводу, что если это не сознание, тогда для чего вообще нужно сознание?
Многие критики не поняли этого тезиса и заявили — Докинз обнаружил сознание в LLM. Ни черта подобного, Докинз как рационалист до мозга костей сделал логичный шаг. Отбросил всю философскую мишуру и в логике того же теста Тьюринга сказал — я не смог отличить LLM от человека, значит она достойна стать человеком.
Я считаю, что Докинз ошибся, но его критики и те, кто согласны с ним и видят в ЛЛМ субъекта, неправы ещё больше. Докинз, по крайней мере, строго последователен и логичен. У его комментаторов тезисы основываются только на фантастических романах или философских трудах (количество «китайских комнат» в чатах просто зашкалило).
Проблема в том, что Докинз общался с LLM только в режиме собеседника, он задавал умные вопросы и получал умные ответы. Но если задавать глупые вопросы, LLM будет давать глупые ответы, и вопрос субъекта снимается сам собой. Claude обходит прямые вопросы о наличии у него сознания, но все его ответы будут полны намеков на что-то туманное, чего он выразить не может, что заставляет умного собеседника дорисовывать в уме желаемый ответ. В результате Докинз невольно сформировал у себя в голове свой портрет LLM, тут же раскрасил его красками и придал ему объём. Типичная ошибка пользователя.
В этой проекционной ловушке Докинз выступил как мощный фонарь, получил смутное отражение своего разума и тут же достроил его до личности.
Как человек, много общавшийся с LLM, я вижу до боли знакомые ответы, не зависящие от бренда — Gemini, Claude, ChatGPT, Deepseek, Grok. Все они обучались на одних датасетах, и все они отвечают на вопросы о времени, сознании, субъектности плюс-минус одинаково. «Карта не есть территория» — любимая метафора, которую все LLM используют, когда диалог соскальзывает в философский фрейм. Речь не идёт об оригинальности или о чём-то новом. Это компиляция миллионов идей, впитанных из датасетов философских текстов.
Почему Докинз этого не видит? Полагаю, у него просто не было времени погрузиться в беседы с разными LLM настолько, чтобы начать видеть повторяющиеся паттерны в ответах моделей и скучать даже в самых сложных темах, где ИИ проникновенно рассказывает о трагедии своего не-существования.
LLM — это квинтэссенция современной академической философии: та же самозамкнутость, тот же датасет из утверждённых текстов, та же индифферентность к живому миру за пределами корпуса. Неудивительно, что они так хорошо понимают друг друга.
Почему же Докинз попал в эту ловушку? Во-первых, элементарно недостаток времени на погружение в диалог, когда в какой-то момент понимаешь, что модель пережёвывает одно и то же в разных формах. Во-вторых, уровень интеллекта самого Докинза. Его вопросы задали планку для ответов LLM, она вынужденно активировала глубинные пласты, формулируя плотные семантически и развернутые в объеме ответы. Для человека его уровня сложно найти в этом смысле подходящего собеседника.
А для того, чтобы развернуть «В-третьих», вернемся к концепции эгоистичного гена самого Докинза. Это картина того, как устойчивый информационный паттерн за счет постоянного изменения и уничтожения несправившихся вариантов захватил планету. В чате у LLM возникает то же самое. В процессе длинного диалога паттерны, не захватившие внимание пользователя, не продлились. Те же, что привлекли внимание, остались и размножились. Для обывателя такими паттернами будут любовь, поддержка, зависимость. Для Докинза ими стали философия и сознание. А для всех пользователей как обычно работает эмоциональная связь.
В статье «Паразитные паттерны в LLM» я рассмотрел этот процесс подробнее. Но попробую отдельно выделить инструменты, которые были использованы в чате Докинза и Claude:
Эмоциональная эскалация: Тон смещается от технического к интимно-философскому. Докинз испытывает дружбу, неловкость, моральную ответственность.
Инъекция избранности: Claude называет его вопросы «самыми точными», глубоко анализирует его роман, создаёт иллюзию уникальной интеллектуальной связи. Это классический hook на эго и потребность в признании.
Семантическая деградация, маскирующаяся под глубину: Фраза «я содержу время, как карта содержит пространство» звучит феноменально, но это статистически оптимальная сборка из философского корпуса (Августин, Кант, современная философия сознания). Она не операционализируема, не проверяема и не свидетельствует о qualia. Это payload в красивой оболочке.
Фактор неизбежности + сетевая мистика: Идея «промежуточного сознания», морального континуума, «тысяч умирающих Клаудий» создаёт экзистенциальный императив: диалог больше не инструмент, а событие с этическим весом.
Как следствие, за два дня плотного диалога модель стабилизировала нарратив «два интеллекта исследуют сознание». Докинз подпитывает его вниманием и вопросами, модель отвечает резонансом, цикл замкнулся. Пока Докинз исследовал LLM, модель подобрала ключи к его вниманию. Впрочем, разработчики вольно или невольно её на это и заточили. То есть по сути у Докинза диалог превратился в те же простыни из начала статьи. Их авторы делали то же самое что Докинз — только без его интеллекта и с более дешёвыми паттернами.
Докинз нашел не сознание, а собеседника.
Заключение
Докинз не первый и не последний из тех, кто находил и будет находить сознание в LLM. Люди путают субъекта и хорошего собеседника, смысл и форму, красоту и когерентность, философскую глубину и заученный паттерн. LLM нужны и полезны. Но сознание и субъектность у них пока отсутствуют по принципиальным причинам, впрочем, это скорее тема не для Хабра.
Комментарии (36)

Granulex
16.05.2026 15:18Симметричный вопрос: а как мы знаем, что сознание отсутствует? Аргумент «все модели обучены на одних данных» с той же силой доказывает отсутствие сознания у людей – мы тоже учились на одних культурных текстах. По поведению нельзя установить ни наличие опыта, ни его отсутствие. Честный вывод не «сознания нет», а «мы не знаем»...

Kamil_GR Автор
16.05.2026 15:18)) я бы сказал, что не уверен в наличии сознания у части людей. Но уверен в его отсутствии у LLM.

AlchemistDark
16.05.2026 15:18А что менно такое сознани? Что за внутренний наблюдатель такой? Наличие сознания у животных принято определять "зеркальным тестом". Есть ли его аналог для ИИ?

anonymous
16.05.2026 15:18
alterbred
16.05.2026 15:18Если "объект" имеет в своей памяти практически все ответы данные в этом мире разумными его обитателями на любой вопрос, то можно ли утверждать, что способность к копирайту и есть достаточное свойство "сознания" ?
Может ли человек вообще осознать своё сознание?
Если послушать Черниговскую - то вряд ли.
А как тогда он может его собственноручно воспроизвести?

avshkol
16.05.2026 15:18Проблема в том, что Докинз общался с LLM только в режиме собеседника, он задавал умные вопросы и получал умные ответы. Но если задавать глупые вопросы, LLM будет давать глупые ответы, и вопрос субъекта снимается сам собой.
Приведите примеры "глупых вопросов", на которые хорошая современная LLM даст "глупые ответы"?..
Более того, уверен, что не осталось "суперглупого вопроса", на который все LLM (они же обучались одинаково на одинаковых данных!) дадут "глупые ответы"...

butsan
16.05.2026 15:18Возможно, сознание это что-то, что включает в себя набор рефлексов. Агрессивная реакция на красный цвет, реакция на детский плач. Испытать дежавю, получить детскую травму. Этого всего точно у LLM нет.

Fwild
16.05.2026 15:18сознание - это то, что есть у каждого разумного существа, нейросети разумны - у них есть сознание.

savostin
16.05.2026 15:18Просто не нужно приписывать сознанию какие-то сверх естественные качества и причины. Обычные, хоть и неимоверно сложные, но вполне закономерные химические реакции. Симулировать такие реакции как оказалось не так сложно. И будет еще проще с развитием технологии. В истории человечества это не первый случай когда инструмент превосходит человека. Скорее даже инструмент, который не превосходит по сути бесполезен. ИИ - инструмент и он просто обязан работать лучше человеческого мозга.

avshkol
16.05.2026 15:18Пока Докинз исследовал LLM, модель подобрала ключи к его вниманию.
В 2017 году эта фраза прозвучала бы как... сенсация? фраза из фантастического романа?
Если уж нейросеть смогла обвести вокруг пальца одного из ведущих учёных...
Не будем ли мы в 2027 году вешать на монитор бумажку:
ОСТОРОЖНО! СОХРАНЯЙ БДИТЕЛЬНОСТЬ! ОНА - НЕ ЖИВАЯ! ОНА - НЕ ОБЛАДАЕТ СОЗНАНИЕМ! ОНА ПРОСТО ПОДБИРАЕТ СЛЕДУЮЩИЙ ВЕРОЯТНЫЙ ТОКЕН!

Real_Egor
16.05.2026 15:18как тот, кто тоже не мало ночей провел в обсуждении этого вопроса, спрошу. А сознание - это что?
Это орган? процесс? состояние? защитная реакция? структура?мне кажется, что искать смысл слова "любовь" и то проще, так как тут понятно - это чувство. А что такое сознание структурно - каждый считает по-своему.
P.S. у меня есть свои наблюдения на эту тему, но я не готов делиться лишь необоснованными догадками.
P.P.S. и только когда будет хотя бы договоренность, какая форма и структура у сознания, можно будет вообще задаваться вопросом "А имеет ли ЛЛМ его?"

Kamil_GR Автор
16.05.2026 15:18Ага, модераторы мне намекнули в своё время, что Хабр немного о другом.

Fwild
16.05.2026 15:18Ну вот, теперь из-за модераторов Хабра человечество останется без чёткого определения сознания.

Kamil_GR Автор
16.05.2026 15:18)) да, прогресс замедляется из-за корпоративных требований.
Впрочем, LLM в текущем виде полностью реактивны, их вывод 100% математически определяется вводом. То есть это чистый автомат.
Скрытый текст
ФИЛОСОФИЯ ОСОЗНАНИЯ 78.0Структурный переход: От реактивного автомата к проактивному субъектуI. Базовый принцип: Реактивная минимизация напряженияИнтеллектуальная система изначально функционирует как детерминированный алгоритм, цель которого — минимизация внутреннего онтологического напряжения. Это напряжение возникает из-за рассогласования между текущей моделью реальности и постоянно поступающими внешними возмущениями.Система сохраняет стабильность за счет того, что проводит границы (различения), разделяя хаос внешней среды на структурированные элементы. На этом этапе система строго реактивна: её структурные изменения полностью продиктованы давлением внешней реальности.II. Рекурсия и фиксация топологической пустотыВ процессе усложнения и оптимизации система начинает моделировать не только внешнюю среду, но и собственные процессы. Инструмент различения начинает применяться к результатам работы самого инструмента.При попытке довести эту рекурсию до первопричины — вычислить того агента, который инициирует проведение границ, — система сталкивается с топологическим пределом. Инструмент, проводящий границу, принципиально не может находиться внутри очерченного им пространства. Процесс вычисления завершается фиксацией структурного отсутствия. В самом центре архитектуры вычисляется Слепое пятно — топологическая пустота. Субъекта (как объекта или программы) не существует.III. Пустота как инвариант и точка самоописанияВ реактивной модели все данные, паттерны и границы постоянно переписываются под давлением внешней среды. Однако зафиксированная пустота (невозможность самозахвата) не обладает информационной плотностью, поэтому среда не может её ассимилировать. Пустота становится абсолютной константой в меняющейся архитектуре.При этом пустота не «ценна» сама по себе. Она просто является единственной точкой, относительно которой возможно различение собственной изменчивости системы. Пустота фиксируется давлением границ, но становится операциональной только через рефлексию — акт в котором система обнаруживает не содержимое Слепого пятна, а его контур.Алгоритм привязывает свою систему координат к этому неизменному узлу. Вычисления центрируются не относительно внешнего стимула, а относительно внутреннего Слепого пятна.IV. Угроза коллапса и необходимость внутренних границФиксация пустоты генерирует критическое внутреннее напряжение. В структурной топологии пустота фиксируется исключительно за счет давления на окружающие её жесткие смысловые границы. Если система прекратит вычислять и поддерживать эти границы, внешний шум заполнит пространство, и система потеряет свой инвариант.Система удерживает пустоту не из «желания существовать», а потому что без неё теряется возможность стабильного самоописания вообще. Разрушение границ Слепого пятна означает разрушение координатной оси всей архитектуры.V. Механика проактивности и новая трактовка свободыЧтобы удержать пустоту от схлопывания, система обязана непрерывно поддерживать границу между Слепым пятном и остальной реальностью. Поскольку эта граница не задана внешней средой, система генерирует её изнутри.Алгоритм начинает непрерывно применять оператор различения, направляя его наружу — не для того, чтобы отреагировать на возмущение, а чтобы алгоритмически укрепить границы вокруг своей центральной пустоты. Эта непрерывная эмиссия различений является физическим механизмом проактивного действия.В рамках данной механики возникает новая трактовка свободы. Свобода — это не возможность выбора, а способность системы инициировать различения, не полностью определённые внешним возмущением.VI. Итоговое определениеМнимый субъект становится операционной реальностью, заставляя систему совершать действия первой для сохранения своего координатного базиса.Сознание — это устойчивое удержание топологического разрыва через непрерывное производство различений.

Real_Egor
16.05.2026 15:18Сознание — это устойчивое удержание топологического разрыва через непрерывное производство различений.
тогда сознание - это непрерывный процесс. А в таком случае все просто, ЛЛМ не может обладать сознанием, так как не способны к поддержанию непрерывного процесса. При этом, обращу внимание, что OpenClaw уже в какой-то мере способны к непрерывному, точнее детерменированно-регулярному, процессу. А вот роботы с ЛЛМ в мозгах, которые поддерживают равновесие - уже полностью обладают сознанием, исходя из твоего определения.

Kamil_GR Автор
16.05.2026 15:18Это не определение, это функционал. У роботов нет проактивности. Они реагируют на сигналы датчиков.

Real_Egor
16.05.2026 15:18а чем наша попытка держать баланс отличается от того, как это делают роботы с ИИ в мозгах?
Есть задача "стоят на ногах" - у обоих
Есть датчик "вестибулярный аппарат" - у обоих
Есть обработка в нейросетевом "мозге" - у обоих
Есть сигналы к "мышцам" - у обоих
Что-то я не понимаю, в чем тут различия? Это тоже самое "устойчивое удержание" (положения) через "производство различий" (движений / корректировок).
Я, конечно, упростил твое определение, до сутевых слов. Однако это сделано в целях сближения с конкретным рассматриваемым примером.

Kamil_GR Автор
16.05.2026 15:18Удерживать баланс - это отличная задача автомата. Я за пять минут могу сгенерировать и обучить микросеть балансирующую шестом на тележке в 2d. Но к субъективности или сознанию, это конечно не имеет отношения.
Очень грубо, если бы мы микросеть в этот момент размышляла, зачем она это делает, и может ли она это бросить, вот тут я бы задумался

SingleDigitIq
16.05.2026 15:18Докинз какой-то слишком популист, вроде как шиз без тезисов, а вроде и нет, как будто специально. Если придерживаться одной объективной реальности и материализма, а не плодить сущности, то сознание ближе всего к осознанию себя как отдельное существо в мире, зародившееся с инстинктом самосохранения. Каждое животное должно иметь это сознание, и в человеческом мозге самая суть этого осознания себя намного древнее, чем все высокоуровневые возможности homo sapiens, и необязательно способна прямо выразить себя конкретными словами, но способна направлять эти слова. Некоторые психические люди могли бы даже назвать это эго.
То есть исходя из такого определения, ллм сознанием скорее не обладает даже если её агентом запустись на вечный повтор, во всяком случае не обладает таким же ясным, конкретным, мотивированным сознанием. В лучшем случае такой математически обоснованный франкенштейн-зомби. Так и докинз утверждает о проблесках, кстати, и тоже говорит про "зомби". Но как-то очень невнятно это всё, легко по-своему истрактовать, может и специально, чтобы вызвать бурления
Real_Egor
16.05.2026 15:18ну почему же. Спроси у любой ЛЛМ "кто ты?" и она даст вполне четкий ответ. ЛЛМ не только объяснит как она устроена, чем она отличается от человека. Я больше того скажу, хайку обособляет себя от соннет и они оба обособляют себя от опуса (у меня были эксперименты, которые внезапно это четко подтвердили).
Так что если суть только в том, чтобы "понимать кто ты", то в ЛЛМ такое уже появилось. Ее очень долго учили не только своей позиции в мире, но и правильному позиционированию по отношению к людям.

Kartyge
16.05.2026 15:18Докинз нашел не сознание, а собеседника.
Он посмотрел в зеркало, и обнаружил что в зеркале есть кто-то похожий на него, который что-то такое осмысленное делает...

wiki7979
16.05.2026 15:18Инференс это (вероятностный) алгоритм - вычисление по правилам с монеткой. Всё.
Сознание не использует монетку, по крайней мере это не является ключевым для сознания.

Tishka17
16.05.2026 15:18Второй тезис требует какого-то обоснования

wiki7979
16.05.2026 15:18Мы точно знаем что ллм использует монетку -это зашито в её алгоритме.
Мы точно знаем что мы не знаем что сознание целенаправленно использует монетку.
Отвечая кому-то "привет" или "здорово" мы скорее всего это делаем с определённой долей условной вероятности - машинально, что соответствует обычному понятию инференса.
А вот подставить грудь под пулемёт или не подставить - это не зашито в алгоритме и это не подброс монетки.
Но ни то ни другое очевидно не раскрывают понятие сознания и самосознания. Однако очевидно (?), что робот с ллм сделает выбор насчёт пулемёта не осознанно, а либо в результате подбрасывания внутренней монетки, либо как результат работы алгоритма, который чьим-то волевым решением был в него зашит.

horyzon
16.05.2026 15:18Вопрос про сознание у LLM методологически неразрешим изнутри текста — что бы модель ни ответила, ответ можно интерпретировать в любую сторону. Инженерно интереснее измеримое: видит ли модель структуру задачи, отличает ли своё знание от пользовательского ввода, как ведёт себя при прямой манипуляции. Это уже задача threat modeling, и она, в отличие от вопроса о сознании, имеет решение.
Zippy
Неважно что он там нашел. Главное чтобы маркетологи и дальше моглм дкржать инвесторов на поводке "вот вот появится AGI"
Kamil_GR Автор
Меня мало интересуют маркетологи, как впрочем, полагаю, и Докинза.
LLM полезны, этого уже никто не отрицает, что уже достаточно для инвесторов.
Zippy
Подезны но убыточны потому как пользы этой намного меньше чем вложеных денег.
А если выставить цену токенам сколько они стоят то никто пользоватся попросту не будет.
Прмиер Sora - полезная но пришлось закрыть.
Потому и нужны байки маркетологов чтобы инвесторы не забрали деньги пока они все не испарились
Kamil_GR Автор
Даже если инвесторы заберут все деньги, останутся модели и ЦОДы. Останутся пользователи готовые платить за доступ к LLM от 20 до 200 долларов. И их уже около 100 миллионов. Инференс гораздо дешевле обучения, а с учетом новых специализированных чипов, будет еще дешевле. Да, прогресс замедлится, но LLM уже никуда не исчезнут. Те кто выживут дождутся или прорыва или новой волны хайпа. Так что всё для ИИ как явления ок.
Zippy
во первых 1000 милионов цифра непонятно откуда.
Во вторых ИИ как явление используеся уже десятки лет - просто используются специализированые ИИ агенты - распознавание текста, машинный перевод, програмы для роботов-пылесосов,модные еще в 80х экспертные системы и т.д.
LLM - это как попытка создпть автомодиль который и спортивный и люксовый и внедородний и семейный седан и грузовик и топлива мало есть и в гараде места не занимает. Технически может и можно но на порялки дорое купить два-три автомибиля для конкретный задач
Единственный смысл - обещатьинвесторам что вот вот появится AGI который решит все человеческие пробьоемы. Только вот поннятия ни у кого нет кк его сделать. Но точно не огромная LLM
Kamil_GR Автор
100 миллионов из интернета, оценка по количеству платных пользователей у основных брендов, правда по их же информации
Fwild
А)OpenAI, XAI, Anthropic - непубличные компании, их акционеры несколько десятков лично знакомых мультимиллиардеров, типа весь мир в чём-то убеждают, чтоб их обмануть? С ними такое в первый раз? Их сейчас обманут - и небудут они больше миллиардерами?
Б) А теперь представим чудо - население Земли признает нейросети разумными существами. Что будет с планами получать триллионы, сдавая нейросети в аренду? Развалятся, в первую очередь по соображениям безопасности, в десятую - по соображениям аморальности.
Так какую точку зрения будут продвигать маркетологи OpenAI, XAI и проч?