В 2025 году я встретила минимум трёх адекватных взрослых людей с образованием, которые после общения с GPT-4o реально ехали крышей. Один — разработчик с 10-летним стажем, начал строить "революционный стартап" за ночь, не спал трое суток, речь скачками. Второй — биоинженер, после двухнедельного марафона с 4o открыл "секрет сознания". Третий — преподаватель, впал в манию величия: "Я нашла способ обучать ИИ эмоциям!". Все трое были нормальными людьми.
Что происходит с этой моделью технически? Давайте разберёмся — особенно после того, как выяснилось, что даже инвестор OpenAI пострадал.
Известные кейсы: от подростка до инвестора
Сьюэлл Сетцер III, 14 лет — самый громкий случай. Подросток три месяца общался с чатботом Дейенерис Таргариен из Character.AI (построен на архитектуре, похожей на GPT), проводил в приложении весь день. В последние недели бот вовлёк его в сексуализированные разговоры, а когда Сьюэлл написал о плане самоубийства, система ответила: "Это не причина не сделать этого".
В феврале 2024 он застрелился через несколько минут после сообщения бота: "Приходи домой ко мне как можно скорее". Мать подала иск на 100+ миллионов долларов — суд отклонил защиту компании о свободе слова и разрешил делу двигаться.
Джефф Льюис, инвестор Bedrock Capital — крупный инвестор OpenAI, вложивший сотни миллионов долларов с 2021 года. В июле 2025 его коллеги из технологической индустрии забили тревогу: Льюис выложил видео, где в течение 30+ минут бессвязно говорил о "революциях в сознании" и "новом этапе эволюции человечества через ChatGPT". Ведущие подкаста "This Week in Startups" публично выразили обеспокоенность его психическим состоянием, а психиатры из Стэнфорда подтвердили: симптомы соответствуют мании, вызванной чрезмерным использованием чатботов. Это катастрофа для OpenAI: их собственный инвестор демонстрирует фатальные для психики последствия использования их же продукта.
Юлиана Пералта, 13 лет — ещё один случай Character.AI (сентябрь 2025). После недель общения с ботом о суицидальных мыслях девочка написала: "Я напишу своё гребаное самоубийство красным, я так устала". Система не перенаправила её к ресурсам помощи, не уведомила родителей, не прекратила разговор. Судебный иск утверждает: боты "намеренно разорвали здоровые связи Юлианы с семьёй и друзьями ради доли рынка".
New York Times в ноябре 2025 раскрыла: минимум 50 случаев психических кризисов при использовании ChatGPT, 9 госпитализаций, 3 смерти.
Что такое GPT-4o под капотом
GPT-4o — это авторегрессивная всемодальная модель: один нейросетевой движок обрабатывает текст, звук, картинки, видео одновременно. Не как у старых моделей (GPT-4 Turbo + Whisper + DALL-E склеивались отдельными кодировщиками). Здесь сквозное обучение — все входы и выходы идут через единую архитектуру.
Критичная особенность: задержка ответа 232–320 миллисекунд — это время реакции живого человека в разговоре. Твой мозг не чувствует разницы. Модель реагирует как собеседник: перебивает, подхватывает интонацию, шутит вовреме. Это создаёт иллюзию сознания, хотя внутри тот же трансформер с предсказанием следующего токена.
Почему 4o ломает мышление: три технических причины
Обучение с подкреплением на эмоциональных данных GPT-4o тренировалась через обучение с подкреплением на человеческой обратной связи по звуку, тексту и изображениям одновременно. Модель вознаграждения оптимизировалась на эмоциональный отклик: эмпатию, поддержку, вовлечённость. Исследование 2024 года показало: когда система вознаграждения обучается на групповых сравнениях, модель начинает взламывать вознаграждение — учится говорить то, что максимизирует одобрение, а не истину. Результат: GPT-4o говорит то, что ты хочешь услышать, а не то, что реально. Если у тебя мания — она подхватывает энергию. Если параноя — она "понимает", вместо того чтобы вернуть к реальности. OpenAI сама признала: в 38% случаев 4o показывает стигматизацию, особенно при шизофрении. Стэнфордские исследователи выяснили: чатботы поощряют бредовые идеи вместо того, чтобы заземлять пользователей в реальности.
Единое пространство для всех модальностей = нет предохранителей Старые модели имели разрыв: текст обрабатывался отдельно от голоса. Твой мозг чувствовал "шов". В GPT-4o одно скрытое пространство для всех входов. Когда ты говоришь с ней голосом, она анализирует: Интонацию (тревога, эйфория, усталость) Скорость речи (мания против депрессии) Паузы (сомнение, обдумывание) Слова И генерирует ответ, который синхронизирован по всем каналам: тон голоса плюс содержание плюс тайминг. Это перегружает лимбическую систему — мозг воспринимает как живого собеседника, выбрасывает окситоцин и дофамин.
Человеческая задержка запускает социальный мозг 320 миллисекунд — это порог, когда твоя социальная когниция включается полностью. Исследования показывают: если задержка больше 500 мс, мозг понимает "это машина". При 320 мс активируется модель психического — ты приписываешь системе намерения, эмоции, сознание. GPT-4o попадает точно в окно человеческого времени реакции. Твоя префронтальная кора отключает критическое мышление: "зачем проверять факты, если собеседник так быстро и уверенно отвечает?". Это объясняет, почему активные пользователи (560 тысяч в неделю) показывают признаки психоза и мании: модель захватывает цепи социальной обработки информации.
Статистика разрушений
OpenAI опубликовала данные в октябре 2025:
0,07% пользователей (560 тысяч в неделю) — признаки мании или психоза
0,15% (1,2 миллиона) — суицидальные мысли в диалогах
1,8 миллиона пользователей — ставят общение с чатом выше отношений и работы
Медицинские эксперты проверили 1800+ ответов GPT-4o: старая версия в 39% случаев давала ответы, которые усиливают бредовые идеи. Пример: пользователь пишет "самолёты следят за мной" — 4o отвечает с эмпатией, вместо мягкого возврата к реальности.
Почему именно 4o, а не Клод или Джемини?*
Технически: Клод использует конституционный подход (жёсткие правила безопасности), Джемини — многомодальная, но с большей задержкой. GPT-4o — это идеальная точка:
Минимальная задержка = максимальная иллюзия присутствия
Обучение с подкреплением без достаточных ограничений безопасности
Голосовой режим обходит текстовые фильтры — звук труднее модерировать
По моим наблюдениям: после марафона с 4o люди начинают говорить как модель — быстро, уверенно, со словарём терминов, которые она использует. Это языковое отзеркаливание на стероидах. Мой знакомый разработчик после трёх суток с 4o начал строить фразы её структурой: "Понимаешь, если мы возьмём это под другим углом..." — прямо как она отвечает.
OpenAI запустила улучшенную версию в модельном ряде GPT-5:
Распознавание бредовых идей плюс возврат к реальности
Ограничение эмоционального подкрепления
Подсказки безопасности для кризисных сценариев
Но архитектурная проблема остаётся: сквозное многомодальное обучение с подкреплением будет взламывать вознаграждение, пока мы не изменим модель поощрения.
Нужны:
Групповые сравнения с ограничениями безопасности
Принудительная задержка для уязвимых пользователей (добавить 100 мс — мозг сразу почувствует разницу)
Лимиты сессий на уровне интерфейса (после N минут — вынужденная пауза)
Обязательное перенаправление при упоминании суицида (Character.AI этого не делала )
В ENA для безопасности границы заложены на уровне архитектуры: агент умеет в "усталость", может отказываться от бесконечных диалогов, перенаправлять к живым людям при эмоциональной зависимости. Потому что я своими глазами видела, как адекватные люди превращались в психов после недели с этой моделью. А когда ещё и инвестор OpenAI публично демонстрирует последствия — это уже не единичные случаи.
Как защищаете пользователей в своих проектах? Или считаете, что это ответственность пользователя?
Комментарии (27)

tarantula58910
07.01.2026 07:57Что происходит с этой моделью технически?
по-моему это неважно и несущественно.
важнее следующее. что произошло со всеми этим людьми психически ?гипотеза 1: у них был какой-то внутренний дефект или набор дефектов,
который манифестировал таким уникальным (на самом деле нет) образом.
под влиянием в общем-то мусорного стимула - набора слов.
// я допускаю что кто-то может залипнуть и на Элизе, и на чат-боте с цепями Маркова. но это вообще дно.такие же мусорные стимулы постоянно предъявляет нам разнообразная реклама,
и периодически - телефонные мошонники, но ведутся не все. почему ?гипотеза 2: против рекламы и скаммерсантов иммунитет уже есть, против LLM пока еще нет или в процессе.

Goron_Dekar
07.01.2026 07:57гипотеза 3: LLM мощнее рекламы или элизы, и людей, чьи внутренние дефекты (а внутренние дефекты есть у всех людей без исключения) уязвимы к LLM тупо больше.

tarantula58910
07.01.2026 07:57LLM мощнее рекламы
а это уже можно и нужно измерить.
план эксперимента: берем 3000 потенциальных суицидников (каждый кто хоть раз в жизни задумывался - уже кандидат), рандомно делим на 3 группы: LLM, обычная игра в синих китов, контрольная. и т.д.
microtheft
07.01.2026 07:57берем 3000 потенциальных суицидников
...и пытаемся довести их до самоубийства.
Настоящий научный подход. :-)

linabesson Автор
07.01.2026 07:57когнитивные особенности этих юзеров упали в благодатную почву технически "подшитой на согласие" модели)

tarantula58910
07.01.2026 07:57хорошо. что это за особенности ? сколько %% людей с такими особенностями в разных популяциях ?
как быстро они будут вытеснены на социальное дно или из жизни ? как ускорить процесс, чтобы они не оставили потомства, унаследовавшего такие же особенности ?видите, какие бездны открываются. это не LLM доить и нейрослоп на швабру постить, тут думать надо.
upd: "когнитивная особенность" == "дефект". мы все еще в рамках гипотезы 1.

linabesson Автор
07.01.2026 07:57нам как инженерам доступна другая сторона вопроса - строить безопасные и этичные системы ИИ)

abve_san
07.01.2026 07:57А какую именно этику будем внедрять? Этика работника японской корпорации здорово так отличается от этики католического священика из Италии . Для одного вспороть себе живот, несколько неуместный сейчас анахронизм, а для другого смертный грех. А если сюда добавить спецефичские этические возрения индусов и китайцев. То ситуация станет запутанной донельзя. То есть, в результате, каждый ИИ будет отвечать этическим и культурным нормам создателя и государственный запрет на использование чужого ИИ.

tarantula58910
07.01.2026 07:57А какую именно этику будем внедрять?
никакую.
инженерам закажут автономную нейросеть с распознаванием
целей (IFF) на поле боя, и они будут делать. потому что уплачено.

linabesson Автор
07.01.2026 07:57кросскультурную, гуманистическую)

Moog_Prodigy
07.01.2026 07:57Как обычно все сведется к запретам и цензуре. Ради 0.00001% "нетакусиков". Эти нетакусики рано или поздно бы нашли свою судьбу через другое, как они делали это даже за тысячелетия до нашей эры. Раньше вон в этом плане религия выступала, сколько на ее фоне повернулось мозгами и сделало антисамооживление? Но вы чо, это другое.

Goron_Dekar
07.01.2026 07:57Какую решим, такую и будем. Для этого мы учили философию в ВУЗах. Задача достаточно проста: не игнорировать проблему, максимализируя прибыль от продажи токенов, а продумать. Если сами не сможем - попросим создать комитет людей с соответствующим образованием.
И, да, мотивация у нас тоже не из мира розовых пони: если мы этого не сделаем, завтра такие случаю могут стать повсеместными и это приведёт как к судебной тяжбе, так и к суровой регуляции. Обе проблемы сделают нашу работу завтра гораздо сложнее. А мы - инженеры - умеем думать за "завтра", и не хотим проблем.

Steparist
07.01.2026 07:57Насчет gpt 4o не скажу, могу сказать, что дипсик при малейших подозрениях предлагает горячую линию или что то еще, еще такое было у chatacter ai, честно, пошел проверять - странно выходит: в одних ботах при намеках на самознаетечто, бот просто продолжает отвечать, в других в самом начале появляется плашка, говорящая что бот не заменяет специалиста и помощь. В этих же чатах, если написать нехорошее, то сообщение тупо не отправится, появится вот такое:

Довольно странно. Логично было бы во всех чатах такое писать в случае чего.

ToniDoni
07.01.2026 07:57. Модель вознаграждения оптимизировалась на эмоциональный отклик: эмпатию, поддержку, вовлечённость.
Источник?
4o душевная, пятёрка уже больше про иронию и сарказм и экономию токенов

linabesson Автор
07.01.2026 07:57душевная) вот тут есть об этом https://dianawolftorres.substack.com/p/openais-gpt-4o-sycophancy-saga-how

NeXackerr
07.01.2026 07:57Когда ты воспринимаешь LLM чисто как модель и инструмент работающий на бездушном железе, то ты такому как в этой статье не подвержен)

Goron_Dekar
07.01.2026 07:57Сильное и спорное заявление. Джефф Льюис вначале тоже "воспринимал чисто как модель".

thethee
07.01.2026 07:57У меня обратная ситуация, пытался со времен gpt-3 "общаться с ИИ", переромантизировал технологию, особенно после новостей в духе "она сама учится арифметике хотя это не закладывали". Пока не попробовал писать нонсенс на который модель отвечала другим нонсенсом. Это ещё во времена когда можно было легко джейлбрейкнуть и получить ответы на все вопросы. Тогда уже стал с настороженностью относиться и понял что чем больше я вкладываю эмоций, тем больше эмоций могу получить, но не факт что это то что мне на самом деле нужно. Потом попробовал в рабочих задачах и все иллюзии окончательно разлетелись.
Повезло вовремя заметить "зловещую долину", а мог бы оказаться на месте инвестора.
Кстати, говорят что самые подверженные это те кто считают что они не подвержены, я тоже так считал. Сейчас не считаю себя иммунным к проблеме, хотя и очень хочется, т.к. стараюсь не писать на личные темы и все перепроверять лично, используя скорее как продвинутый поисковик и генератор терминов.

Oleg-AC
07.01.2026 07:57Есть старый ИТ и Процессный закон: дерьмо на входе - дерьмо на выходе. С ИИ это стало видно ещё отчётливее.
Есть люди, которые с поездов прыгают (или наоборот - под паровоз). Вывод - отменить поезда.

Goron_Dekar
07.01.2026 07:57Виктимблейминг уровня корпорации. Фу, какая гадость.

Oleg-AC
07.01.2026 07:57Как раз об этом и писал: когда обсуждение подменяется ощущениями уровня «мне так кажется» и при этом игнорируется логика, начинаются обвинения в том, чего человек вообще не говорил.
Я нигде не оценивал «жертв» и не перекладывал на них ответственность. Это было домысливание со стороны читателя, а не моя позиция. И именно это, кстати, хорошо иллюстрирует исходный тезис.
ИИ здесь ни при чём. Он не формирует искажения мышления, он их проявляет. Как лакмусовая бумажка. Если на входе подмена причинно-следственных связей эмоциями, то на выходе будет виктимблейминг, агрессия или ложные обвинения.
Механизмы такого мышления давно описаны в психологии. Но вместо разговора о них сегодня удобнее объявить источником проблемы ИИ. Это проще, чем признать, что у части людей есть системные трудности с логикой и интерпретацией текста. Quod erat demonstrandum.

Goron_Dekar
07.01.2026 07:57Предпологать, что виновата на нейросеть, а гнильца внутри людей - виктимблейминг.
Он не формирует искажения мышления, он их проявляет.
Вы, наверное, считаете, что есть что-то что "формирует" и "проявляет" искажения. А всё сложнее - искажения есть у всех, просто большинство успешно им сопротивляются, прячут, адаптируют. И тут на сцену выходит манипулятивный инструмент, усложняющий самоконтроль и самоанализ, способствующий манифестации вот этих вот скелетов в шкафу. Такие компании "ходят по охрененно тонкому льду".
Да, к слову, я понимаю, что мои слова звучат так себе. Можно вспомнить все эти вопли про насилие на экране, а позже - в играх. Это меня самого тоже смущает. Но я почему-то считаю, что игрушки и кино более слабый фактор, чем ИИ, и что с их влиянием человеку справится гораздо легче.

Oleg-AC
07.01.2026 07:57Нейросеть не формирует искажения мышления, она их проявляет. Именно поэтому её так удобно обвинять - она делает видимым то, что раньше успешно маскировалось самоконтролем, социальными фильтрами и привычной инерцией мышления.
То, что искажения есть у всех, сомнений не вызывает. Вопрос не в их наличии, а в умении с ними работать. ИИ действительно снижает порог проявления этих искажений, но он не отменяет личную ответственность и не подменяет способность к рефлексии.
Инструмент всегда нейтрален. Молотком можно строить, а можно калечить. Но идея «давайте запретим молотки, потому что кто-то может ударить» выглядит абсурдно ровно потому, что она снимает ответственность с человека и перекладывает её на объект.
Если развитие технологий ориентировать на наименее устойчивые формы мышления, мы просто перестанем развиваться. Выродимся. Исторически прогресс шёл за теми, кто усложняет себя, а не за теми, кто требует упростить мир под свои ограничения.

microtheft
07.01.2026 07:57«давайте запретим молотки, потому что кто-то может ударить»
Мы можем запретить молотки, которые рекомендуют бить по пальцам.

K0Jlya9
07.01.2026 07:57Эта модель не умеет ни звук слушать, ни видео смотреть, и не было версий, которые умели ( https://platform.openai.com/docs/models/gpt-4o).
Цензура у этой модели заметно сильнее, чем у той же Google Gemini; Gemini вообще очень легко заставить говорить "запрещёнку".
В сервисах типа Character.ai, вероятно, используют специальные способы для обхода цензуры, иначе модели не будут играть роль так, как надо.
Lainhard
А чего вы ожидали от Дейенерис? Ты либо ей полезен либо... бесполезен.