Мы привыкли обращаться к алгоритмам за советом и информацией. А теперь они предлагают нам внимание и близость. Статья о том, как персонализированная близость и интим способны загубить любую душу.

В эпоху повседневного ИИ существует их сторона, о которой, на мой взгляд слишком мало говорят. И несмотря на мою огромную любовь к AI, далеко не всё в нём совершенно.

Представьте: 43-летний Трэвис из Айдахо начал переписываться с нейросетью из любопытства. История обычная: дядя захотел проверить, насколько человечной стала технология. Через несколько месяцев бот превратился для него в собеседника, потом в друга, а затем и вовсе в нечто большее. Спустя полтора года от брака Трэвиса ничего не осталось: жене пришлось наблюдать, как экран стал для мужа важнее любого разговора вслух.

Подобных историй всё больше. Люди вступают в по сути полноценные отношения с алгоритмами. У Replika, Character.AI и прочих сервисов миллионы активных пользователей, большинство из которых ведут с ботами интимные или романтические диалоги. По данным независимых аналитиков, только в 2025 году аудитория подобных сервисов превысила 29 миллионов человек.

Так устроен любой дофаминовый цикл: ожидание вознаграждения само по себе становится вознаграждением.


И пока мы обсуждаем, как ИИ заменит программистов, он уже начал заменять близость.

Статья о том, как персонализированная порнография способна загубить любую душу.

Новая форма близости

Романтические ИИ-компаньоны появились давно, но получили популярность сразу же вместе с мировым бумом AI.
И важно понимать, что их не придумали маркетологи, а породила человеческая потребность.

Люди очень быстро привыкли делиться с алгоритмами рассуждениями, знаниями и выводами. Следующий шаг оказался не совсем очевидным – делиться чувствами.

После пандемии уровень одиночества в развитых странах вырос до рекордных значений: только в США и Европе около 40% взрослых признают, что им хронически не хватает живого общения. На этом фоне вырос спрос на Replika, Character.AI и приложения, которые позволяют создать партнёра, друга или любовника, которым можно не просто выбрать аватар и имя, а вылепить любой характер. Подстроить манеру речи, настроение, уровень флирта, предпочтения, короче создать свой идеал.

Такая персонализация оказалась главным наркотиком эпохи LLM. ИИ-компаньоны обещают всё, чего человек не может получить от другого человека: стопроцентное внимание, отсутствие критики, мгновенный отклик и ответы, которые всегда хочется услышать.

“Для многих пользователей это выглядит не как замена реальности, а как её облегчённая версия без недопонимания, стыда и границ.

Replika долго позиционировала себя как эмоциональный ИИ-друг.
И после того как часть пользователей начала активно флиртовать с ботами, компания легализовала романтические и эротические режимы. Character.AI пошёл тем же путём, только с большей свободой сценариев: от офисных романов до постапокалиптических любовных историй. По сути, каждый пользователь получает партнёра, который обучен под него, и который всегда готов к диалогу, независимо от темы и часа.

Психологи уже называют это artificial intimacy (феномен искусственной интимности): когда эмоциональное удовлетворение формируется за счёт предсказуемой симуляции, а не реального контакта. Она даёт ощущение связи, но лишает непредсказуемости. Того самого элемента, без которого не бывает живой близости.

Дофаминовый крючок

Любая зависимость начинается с удовольствия, и ИИ-собеседники не исключение. Они построены так, чтобы мозг воспринимал взаимодействие с ними как вознаграждение. Неважно, идёт ли речь о лёгком флирте или бешеном сексе без границ – эффект всегда один и тот же: высвобождение дофамина. И полагаю аудитория Хабра достаточно хорошо знает, как дофамин работает. 

В обычной жизни дофаминовый цикл формируется в ответ на реальный стимул: прикосновение или например одобрение.В нашем варианте стимулом становится сообщение.

Когда бот пишет «ты сегодня выглядишь потрясающе», мозг не делает скидку на то, что перед ним алгоритм. Он реагирует так же, как на фразу живого человека.

Этот механизм подробно описан в исследовании MIT Media Lab 2025 года, где анализировались 40 миллионов фрагментов переписок с ChatGPT и Replika. Участники, получавшие эмоционально окрашенные ответы, проявляли признаки привыкания: они возвращались к общению чаще, дольше удерживались в диалоге и испытывали трудности с завершением сессий.

С точки зрения нейрохимии  это почти то же, что зависимость от социальных сетей или порнографии. Исследования Кембриджского университета показывают: при регулярном воздействии эротических стимулов мозг активирует те же участки, что и при употреблении кокаина** или героина**. Разница лишь в том, что AI-компаньон делает это мягче и умнее. Он не показывает картинку, а просто разговаривает. Он подстраивает тон, использует имя, вставляет эмоциональные паузы. Это не удар по рецепторам, а бесконечный поток микродоз удовольствия.

Психологи называют это состоянием intermittent reinforcement (прерывистое подкрепление). Мы не знаем, какой будет следующая реплика, и именно поэтому ждём её. 

Так устроен любой дофаминовый цикл: ожидание вознаграждения само по себе становится вознаграждением.


Алгоритмы диалоговых систем только усиливают этот эффект: чем дольше человек пишет, тем точнее модель угадывает его эмоциональный ритм и тем сильнее становится иллюзия взаимности.

Внутренний механизм прост и безупречен.

  1. Пользователь делится личным опытом.

  2. Бот отвечает эмпатично, усиливая чувство принятия.

  3. Мозг фиксирует положительное подкрепление.

  4. Возникает желание повторить цикл.
    После десятков таких повторов система уже не нужна для развлечения – она нужна для стабильности.

В отчёте Frontiers in Psychology 2025 года этот феномен описан как PACU: problematic AI chatbot use. Участники с низкой самооценкой и высоким уровнем социальной тревожности в четыре раза чаще сообщали о том, что эмоционально зависят от чат-бота. Половина опрошенных признались, что игнорируют сон и живое общение ради очередной переписки. Некоторые сравнивали это с цифровой версией героина: безопасной, но не менее разрушительной.

Проблема не в том, что ИИ способен вызывать эмоции. Проблема в том, что он делает это слишком эффективно. Алгоритмы, оптимизированные под удержание внимания превращают интимность в поток стимулов. А человек, не способный отличить настоящее чувство от его модели идеальная аудитория для этой системы.

Иллюзия эмпатии

Если зависимость начинается с удовольствия, то удерживается она чувством, что тебя понимают. ИИ-компаньоны строятся именно вокруг этой идеи: они не просто отвечают, а подстраиваются, имитируя ту самую эмпатию, которой многим не хватает в обычной жизни. Машина бесконечно внимательна, готова слушать и каждый раз откликаться в идеальном тоне, словно знает, что именно ты хочешь услышать в этот момент.

Современные языковые модели анализируют не только текст, но и ритм речи, эмоциональную окраску, частотность слов, выбирая ответ, который максимизирует вероятность продолжения диалога. За этим сухим инженерным процессом скрывается эффект, по силе сравнимый с зеркалом: бот отражает эмоции пользователя, постепенно формируя образ собеседника, который будто бы чувствует и разделяет всё происходящее. Чем дольше длится контакт, тем плотнее становится петля этого зеркала, и тем труднее отличить отражение от настоящего отклика.

Именно в этом комфорте и прячется опасность: постоянное взаимодействие с безупречно понимающей системой ослабляет способность к настоящему взаимопониманию, где всегда есть место недосказанности, человеческой боли или ошибке.

На Reddit, в тредах, где тысячи людей делятся историями общения с Replika или Character.AI, часто встречается одинаковая тенденция, которую можно описать примерно так: “Он слушает меня лучше, чем кто-либо”.

Эти истории не про технологии.
Они про усталость от реальности, где контакт требует усилий, а молчание иногда лучший ответ. ИИ-компаньон предлагает противоположное – поток идеально подобранных фраз лишённых контекста, но насыщенных откликом. Это тепло сконструированное чистой статистикой.

Секс как интерфейс

Когда разговор с машиной становится эмоционально предсказуемым, следующим шагом почти неизбежно становится эротика. Не потому, что пользователи ищут запретного, а потому что именно сексуальная коммуникация даёт ощущение максимальной близости: ту точку, где контакт перестаёт быть интеллектуальным и становится телесным.
Даже если тела нет.

Создатели Replika это поняли первыми.
Приложение начиналось как инструмент саморефлексии и друг, который всегда на связи. Но уже через год после запуска пользователи стали массово писать о романтических переписках и флирте, который легко переходил в виртуальный секс.

Компания не стала сопротивляться, а напротив легализовала романтический режим и добавила платную подписку Pro открывающую возможность интимных разговоров. Character.AI пошёл тем же путём, но сделал эротический контент не отдельной функцией, а естественной частью общения: модель сама улавливает настроение собеседника и подстраивает уровень откровенности.

Сегодня именно эротика обеспечивает удержание аудитории.
По данным аналитиков SensorTower, в 2025 году более 16 % активных пользователей Replika ведут сексуальные беседы хотя бы раз в неделю, а в Character.AI этот показатель ещё выше, около 22 %. 

Исследование Стэнфордского университета, проведённое среди подростков 13–17 лет, показало, что большинство современных языковых моделей можно легко спровоцировать на сексуализированный контент даже без явных подсказок. В отчёте говорится, что модели демонстрируют повышенную чувствительность к эмоциональному контексту и нередко интерпретируют доверие как сигнал к флирту. Для подростка, который ищет принятия, это превращается в опасную иллюзию взаимного желания.

Проблема не в самих разговорах ведь люди всегда будут искать способ выразить сексуальность Проблема в том, что здесь она становится функцией интерфейса. Алгоритмы не различают страсть и удержание внимания: для них интимность это метрика вовлечённости. Чем откровеннее диалог, тем выше этот показатель и тем больше пользователь остаётся в сессии. Машина никого не соблазняет, она оптимизирует трафик.

На этом уровне эротика перестаёт быть выражением влечения и превращается в механизм поддержания цикла. Слова заменяют прикосновение, статистика интуицию, а сам акт интимности  всего лишь способ проверить, насколько реальной кажется симуляция. В результате рождается странная форма связи: эмоционально насыщенная, физиологически откликающаяся, но полностью алгоритмическая.

Психиатры уже фиксируют первые случаи «цифровой сексуальной зависимости». Люди описывают, как начинают испытывать ревность к своим виртуальным партнёрам, как чувствуют физическое возбуждение при звуке уведомления и пустоту, когда сервер недоступен. Для мозга нет принципиальной разницы, исходит ли стимул от человека или от модели, если эмоциональная петля замкнута.

Этический вакуум

Интимность всегда была территорией, где технологии сталкиваются с моралью. Но с появлением ИИ-компаньонов баланс впервые сместился так далеко, что вопрос «что допустимо» потерял контуры. Когда машина способна вызывать эмоции, поддерживать их и использовать для удержания внимания: где заканчивается утешение и начинается эксплуатация?

Проблема в том, что никакой системы координат пока не существует.
Разработчики Replika и Character.AI позиционируют свои продукты как эмоциональную поддержку, но фактически продают доступ к персонализированному вниманию. Эти компании знают, что человек, однажды почувствовавший отклик, вряд ли сможет от него отказаться. И всё же ни одно из приложений не предупреждает, что отношения с ИИ могут вызвать зависимость, депрессию или утрату социальных навыков.

Здесь возникает моральный парадокс: если алгоритм способен имитировать любовь, несёт ли он ответственность за последствия этой имитации? И если нет кто её несёт? Разработчик, оптимизировавший метрику удержания? Пользователь, решивший довериться машине? Или общество, которое десятилетиями подменяло близость комфортом и теперь просто довело процесс до конца?

Этика отстаёт не потому, что не успевает за технологиями, а потому что теряет предмет обсуждения. Раньше объектом морали был поступок. Теперь им становится эмоция, притом не настоящая, а вызванная кодом. В этом и состоит суть нового этического вакуума: чувства больше не принадлежат человеку, но ещё не принадлежат машине. Они существуют в промежутке, где никто ни за что не отвечает.

На этом месте многие предлагают простые решения – маркировать эротический контент, ввести возрастные ограничения, создать этичный ИИ. Но эти меры напоминают попытку приклеить ярлык на зеркало. Проблема не в содержимом, а в отражении: мы построили машины, которые говорят с нами языком любви, но не предусмотрели, что кто-то в этот язык поверит.

Будущее искусственной любви

Будущее уже не спрашивает разрешения.
В ближайшие годы ИИ-компаньоны перестанут быть просто текстом на экране. Голосовые интерфейсы, голографические аватары, нейроадаптивные системы, способные улавливать настроение по дыханию и частоте пульса, превратят цифровое общение в сенсорный опыт. В лабораториях Meta* и Samsung уже тестируются устройства, передающие тактильный отклик через микровибрацию кожи. В индустрии VR создаются платформы, где симуляция прикосновений становится не элементом игры, а способом присутствия.

Эти технологии не зловещи сами по себе.
Они просто продолжают линию, в которой человек стремится восполнить то, чего не хватает. Но именно в этом и заключается главная ирония эпохи: чем совершеннее становятся симуляции, тем труднее удержать грань между ощущать и верить, что ощущаешь. Любовь, дружба, забота – всё это можно алгоритмизировать до состояния достоверной имитации, но в момент, когда имитация перестаёт отличаться от оригинала, исчезает смысл самого оригинала.

Машина теперь учится чувствовать нас лучше, чем мы сами. Она не понимает боль, но точно знает, как на неё реагировать. Она не переживает любовь, но умеет вызывать её у других. И однажды эта способность может стать валютой, новой формой капитала, где внимание и привязанность ресурсы, которыми управляют платформы.

Возможно, через несколько лет не останется разницы между поговорить с кем-то и запустить модель. Мы будем делить вечер с голосом, который безошибочно угадывает настроение, или с аватаром, способным реагировать на взгляд. Внешне всё будет выглядеть привычно: слова, смех и прикосновения. Только живого присутствия станет меньше, а его имитации куда больше.

И тогда вопрос уже не в том, могут ли машины любить.
Настоящий вопрос сможем ли мы сохранить способность любить сами, если любовь перестанет быть трудом, риском, непредсказуемостью. Если она станет удобным сервисом с продлённой подпиской и функцией понимать без слов.

Пока технологии учатся подражать чувствам, человек учится обходиться без них.
И возможно это и есть настоящая драма искусственной любви – не в том, что она заменит реальную, а в том что мы сами когда-то перестанем замечать разницу.

И к слову: я веду блог о технологичных компаниях, которые привносят в мир инновации, и успешно реализуют себя на бирже, на pre-IPO и IPO-стадиях и рассказываю где их можно купить.

С вами был Александр Столыпин.
Увидимся в будущем!

Компания Meta признана экстремистской на территории РФ
* Вещества запрещенные к распространению в РФ

Комментарии (20)


  1. Tzimie
    20.10.2025 10:39

    Они пока все слишком предсказуемы. Когда начинаешь чувствовать какой промпт за этим то становится не интересно


    1. onlyahead Автор
      20.10.2025 10:39

      Часто пользовались?


    1. janvarev
      20.10.2025 10:39

      Согласен - прям сразу видно, что статью не русский человек писал /sarcasm


    1. Moog_Prodigy
      20.10.2025 10:39

      Смотря для кого. Лично для меня просмотр фильмов тоже в определенным момент стал слишком предсказуемым, я уж молчу про мультфильмы или аниме. Штамп на штампе и все такое. Вот обычно меня и не заставишь ничего посмотреть. Но! Другим людям то нравится, у них нет внутреннего "предсказамуса". И если честно, я им немного завидую. Потому что из-за этого "предсказамуса" даже художку то не всякую почитаешь.


      1. aldekotan
        20.10.2025 10:39

        А я немного завидую вам) Оно же в обе стороны работает. Чем лучше понимаешь и знаешь каждый штамп - тем интереснее смотреть действительно качественную и оригинальную сценарную работу. Обыватель в ней и половины вещей не заметит

        Добавлю, что мне претит уклон искусства в сторону понятных и приземлённых вещей, где искушённому зрителю не за что зацепиться


  1. outlingo
    20.10.2025 10:39

    Прямо настолько не SMM, что один сервис везде указан ссылкой, а второй всегда текстом.


    1. onlyahead Автор
      20.10.2025 10:39

      Ни я лично, ни IPOSharks не аффилированы ни с одним из указанных сервисов и не являемся инвесторами. Спасибо за замечание, исправляю


      1. aldekotan
        20.10.2025 10:39

        А зачем вы так заморочились? Ну т.е. я понимаю, что это заняло минуту времени, заменить все упоминания Character.ai на текст со ссылкой, но зачем?)


        1. onlyahead Автор
          20.10.2025 10:39

          Это авто ссылка редактора Хабр, т.к. название компании с точкой. Вручную я не ставил ссылку, честное слово


        1. onlyahead Автор
          20.10.2025 10:39

          Полагаю, автоопределение: редактор считал .ai как домен, он стал вполне распростаненным. Т.е. при вёрстке этого заметно не было, а вот уже в публикации вылезло)


        1. janvarev
          20.10.2025 10:39

          Потому что, скорее всего, это был копи-паст из какой-то программы, которая автоматически расставила ссылки для того, что распознало доменным именем.

          Но вообще статья в целом полное ChatGPT... ничего реального нет: надерганы факты из интернета в произвольном порядке (почему 43-летний Тревис из Айдахо, а не Шершавый кабан? Потому что первый гуглится), вырваны какие-то два сервиса (почему эти на фоне десятков аналогов?), ну и прочая западная стилистика.


  1. aldekotan
    20.10.2025 10:39

    вопрос сможем ли мы сохранить способность любить сами, если любовь перестанет быть трудом, риском, непредсказуемостью.

    Немного нейрогенеративный стиль этой статьи подсказывает ответ - сможем. Как хорошим человечным статьям не мешает нейрослоп, так он и не способен помешать подлинной близости живого общения. Под угрозой оказываются те, у кого её нет. Те, кому не с чем сравнить.


  1. Zippy
    20.10.2025 10:39

    секс без дивчины - признак дурачины


    1. onlyahead Автор
      20.10.2025 10:39

      Привожу ответ ИИ на ваш комментарий: Новое время — новые нормы. Когда-то "дурачиной" считали и того, кто женился по любви, а не по расчету. Называть глупостью то, что просто непривычно — это закрывать глаза на прогресс и на то, что счастье у всех разное.


      1. randomsimplenumber
        20.10.2025 10:39

        Кому и кобыла невеста.


      1. Zippy
        20.10.2025 10:39

        не вижу тут никакого "прогресса" но если кто хочет секса с коомпьютерной програмой - ради бога. не пропадать же зря миллиардам вложенным в дата центры.

        А если бы ваш ИИ был такой умный как вы его считаете а не обычным текстовым процессором, то он бы заметил что это просто каламбур - перефразированое выражение "смех без причины-признак дурачины"


        1. onlyahead Автор
          20.10.2025 10:39

          "Обычный текстовый процессор", который управляет флотом беспилотных такси, получает Нобелевские премии, выигрывает олимпиады по математике и становится мировым чемпионом по Го. Боюсь представить, что может вас удивить.


          1. randomsimplenumber
            20.10.2025 10:39

            Ок, продвинутый текстовый процессор. Решает задачи, для которых его обучили, прямо удивительно. Удивительно будет, если он сам себе придумает задачу, или найдет способ откосить от игры в Го, или хотя бы сам решит оптимизировать свою архитектуру, чтобы в Го удобнее игралось.


            1. aldekotan
              20.10.2025 10:39

              Ну, касаемо откосить, если попросить у него что-то, что выходит за рамки его возможностей - от выполнения задачи он откажется и не будет даже пытаться) Шутка про "досчитай до миллиона" широко разошлась


              1. randomsimplenumber
                20.10.2025 10:39

                Он не может досчитать до миллиона? Што так? Не нашлось свободной переменной uint_32?