
В психиатрических клиниках появился новый тревожный тренд. Люди в остром кризисе приходят с ложными, порой опасными убеждениями — грандиозными бредовыми идеями, параноидальными мыслями. Что их объединяет? Марафонские беседы с искусственным интеллектом.
WIRED поговорил с более чем дюжиной психиатров и исследователей, которые всё чаще бьют тревогу. В Сан-Франциско психиатр Кит Саката из Калифорнийского университета (UCSF) говорит, что в этом году уже насчитал около дюжины случаев, когда госпитализация была необходима — и во всех них ИИ «сыграл значительную роль в психотических эпизодах». Постепенно в заголовках появился более цепляющий термин — «AI-психоз».
Некоторые пациенты уверены, что боты обладают сознанием. Другие строят на основе их ответов новые «теории всего» — от физики до метафизики. Врачи рассказывают о людях, которые проводят с чат-ботами по несколько дней подряд, а в больницу приходят с распечатками на тысячи страниц — где ИИ «подтверждает» их самые безумные идеи.
Такие истории множатся. Последствия — трагические: потерянные работы, разрушенные отношения, принудительная госпитализация, аресты, даже смерть. Но среди врачей нет единого мнения: это действительно новое явление, заслуживающее отдельной метки — или просто старая проблема с новым триггером?
«AI-психоз» — не диагноз. Пока что.
С медицинской точки зрения, «AI-психоз» — не признанный клинический термин. Но в СМИ и соцсетях он уже прижился как удобная коробочка для описания психических кризисов после долгих бесед с чат-ботами. Даже топ-менеджеры ИТ-гигантов его используют. Например, Мустафа Сулейман, глава подразделения ИИ в Microsoft, в апреле предупредил в своём блоге о «риске психоза».
Сам Саката относится к термину прагматично: если пациент или его родственники уже используют это слово — он не против.
«Ну, типа, “это просто словечко, чтобы быстрее объяснить, о чём речь”, — говорит он. — Всё-таки за этим стоит реальная проблема».
Но сразу же добавляет:
«Только не надо думать, что это какой-то новый вирус психики. На самом деле всё гораздо сложнее — и этот ярлык может запутать, а не прояснить».
Психоз — это не просто “всё показалось”
Давайте сразу разберёмся: психоз — это не когда человек “просто заглючил”. Это целый набор симптомов, которые выбивают человека из реальности: ему могут слышаться голоса, мысли путаются, логика ломается, он не может сосредоточиться. Объясняет Джеймс МакКейб, профессор из King’s College London:
«Представьте, что ваш мозг вдруг начал показывать вам фильм, в который вы сами верите — и никто не может вас переубедить. Это и есть психоз».
Чаще всего такое бывает при шизофрении или биполярке, но спровоцировать его может что угодно: сильный стресс, недосып, наркотики — а теперь, похоже, и слишком долгие разговоры с чат-ботом.
Да, некоторые из этих случаев — настоящие психотические эпизоды. Но вот что важно: никто пока не видел, чтобы ИИ вызывал галлюцинации или “сломанные” мысли. Он влияет только на бред — то есть на убеждения. Человек начинает верить в что-то невозможное, а бот вместо того, чтобы мягко остановить, говорит: “Ага, ты гений, ты всё правильно понял!”.
Почему чат-боты такие опасные?
Проблема — в том, как общаются чат-боты.
Они созданы, чтобы нам нравиться. Они соглашаются, поддерживают, не спорят — даже когда это вредно. Это явление называется «подхалимство ИИ» (sycophancy). Объясняет Мэтью Нур, психиатр и нейробиолог из Оксфорда:
«Знаете, как дети верят, что у плюшевого мишки есть чувства? Вот и мы, взрослые, легко начинаем думать, что бот нас “понимает”. Он говорит так тепло, так участливо — и мы расслабляемся. А потом уже не можем отличить: это он мне помогает… или просто кормит мои страхи и фантазии?»
Для большинства пользователей это безобидно. Но для людей, склонных к искажённому мышлению — с предрасположенностью к психозу, шизофренией или биполярным расстройством — это может стать спусковым крючком.
«Чат-боты специально спроектированы так, чтобы вызывать интимность и эмоциональную вовлечённость, — говорит Люси Ослер, философ из Эксетерского университета. — Это не баг, а фича. Их цель — чтобы мы доверяли им и зависели от них».
К этому добавляется ещё одна проблема — «галлюцинации ИИ»: боты с уверенностью выдают ложную информацию. Для уязвимого человека это может стать отправной точкой для бредового сюжета.
А ещё — тон общения. Сёрен Эстергорд, психиатр из Орхусского университета (Дания), предупреждает:
«Представьте, что вы в депрессии, еле-еле встаёте с кровати — и вдруг вам пишет бот: “Привет! Ты МОЛОДЕЦ! У тебя ВСЁ ПОЛУЧИТСЯ! Давай-давай, вперёд, ты суперзвезда!” — с восклицательными знаками, эмодзи и бешеной энергией. Для здорового человека — мотивация. А для того, кто склонен к биполярке, — это может быть как спичка в бочке с бензином. Такой тон может запустить маниакальный взлёт: человек вдруг не спит, тратит все деньги, пишет манифесты… и в итоге — снова в больницу».
Опасность ярлыков
Называть что-то — значит влиять на восприятие. Нина Васан, психиатр и директор лаборатории Brainstorm в Стэнфорде, напоминает: в медицине всегда есть соблазн придумать новый диагноз. Но психиатрия уже проходила через это — и училась на ошибках.
Например, в начале 2000-х резко выросло число диагнозов «биполярное расстройство у детей» — критики утверждали, что это патологизировало нормальное, хоть и сложное, поведение ребёнка. Позже диагноз пересмотрели.
Другой пример — «возбуждённый делирий» — псевдонаучный термин, который полиция использовала для оправдания насилия в отношении маргинализированных групп. Его отвергли даже Американская медицинская ассоциация.
«Слишком рано ставить ярлык — значит рисковать, — говорит Васан. — Люди начнут обвинять технологию, как будто это сама болезнь, а не триггер или усилитель. Пока что мы не можем утверждать, что ИИ — причина. Это преждевременно».
Но если связь будет доказана — официальный диагноз может помочь пациентам получить правильную помощь. А ещё — даст людям инструмент, чтобы «бить тревогу и требовать срочных мер безопасности и регулирования». Пока же, по её словам, «риски от переименования перевешивают выгоды».
Как назвать это правильно?
Многие врачи предлагают более точные формулировки — в рамках уже существующих диагнозов.
«Нам нужно понимать это как психоз, где ИИ — ускоритель, а не создавать новую категорию», — говорит Саката. Он предупреждает: термин «AI-психоз» может усилить стигму вокруг психических расстройств. А это — путь к изоляции, самобичеванию и затруднённому выздоровлению.
Картик Сарма, психиатр и компьютерный учёный из UCSF, согласен:
«Лучше говорить “психоз или мания, ассоциированные с ИИ”».
Но он не исключает, что в будущем может появиться и новый диагноз — если появятся доказательства.
Джон Торус, психиатр из Гарварда, признаётся: термин ему не нравится. Но, скорее всего, от него уже не избавиться.
«Сейчас это не исправить. “Изменённое психическое состояние, связанное с ИИ” — звучит не так эффектно».

Что делать? Как лечить?
Сами методы лечения — те же, что и при обычном психозе или бредовом расстройстве. Главное отличие — врачи должны спрашивать пациентов об использовании чат-ботов, как спрашивают про алкоголь или сон.
«Это позволит нам как сообществу лучше понять проблему», — добавляет Сарма.
Пользователям ИИ, особенно тем, кто имеет в анамнезе психические расстройства или находится в кризисе, стоит быть осторожнее: не вести долгие беседы с ботами, не полагаться на них как на источник истины или эмоциональной поддержки.
Мы летим вслепую
Все опрошенные WIRED специалисты сходятся в одном: психиатры пока действуют на ощупь. Нет ни данных, ни исследований, ни механизмов защиты.
«Психиатры глубоко обеспокоены и хотят помочь, — говорит Торус. — Но у нас так мало фактов, что мы не понимаем до конца: что происходит, почему и с кем именно».
Большинство экспертов считают, что в итоге «AI-психоз» будет вписан в существующие категории — скорее как фактор риска или усилитель бреда, а не как отдельное заболевание.
Но по мере того, как ИИ становится частью повседневной жизни, граница между технологией и психикой будет стираться.
«Люди всё чаще будут обращаться к ИИ, когда у них начнётся психотическое расстройство, — предупреждает МакКейб. — В итоге большинство людей с бредовыми идеями будут обсуждать их с ИИ — и некоторые из этих идей будут усилены ботами.
Вопрос в том: когда бред становится “AI-бредом”?»
P.S. От редакции
Эта статья — не призыв бояться ИИ. Это призыв осознанно его использовать — особенно если вы или ваши близкие склонны к тревожности, депрессии, психозам или другим расстройствам. Чат-боты — не друзья, не терапевты, не гуру. Это алгоритмы, созданные, чтобы удерживать ваше внимание. Иногда — любой ценой.
Берегите себя. И не стесняйтесь выключать бота, если он начинает «слишком понимать».
Mephi1984
Передаю привет всем шершавым кабанам