В апреле этого года в блогах, посвящённых кибербезопасности, начали появляться отчёты о новой сложной платформе искусственного интеллекта, созданной исключительно для совершения преступлений. Но несмотря на своё происхождение и пугающее название, Xanthorox не так уж загадочна. У разработчика этого ИИ есть страница на GitHub, а также публичный YouTube-канал с видеозаписями интерфейса и описанием «Этот канал был создан для развлечений и ничего иного». У Xanthorox есть и почтовый адрес Gmail, Telegram-канал, на котором ведётся хроника разработки платформы, а также Discord-сервер, на котором пользователи могут платить за доступ криптовалютой. Не требуется никакой регистрации на криминальных форумах дарк-веба, достаточно лишь одного сообщения предпринимателю, который обслуживает потенциальных преступников с большей прозрачностью, чем многие онлайн-магазины, рекламирующие омолаживающие кремы в Instagram.

Но это не значит, что платформа невинна. Xanthorox генерирует дипфейк-видео или аудио, чтобы выдавать себя за знакомых вам людей, помогает выполнять фишинг адресов электронной почты для кражи учётных данных, создаёт зловредный код для взлома компьютера и ransomware для его блокировки — всё это популярные инструменты в индустрии мошенничества с оборотом в миллиарды долларов. А одна из видеозаписей экрана на YouTube-канале обещает нечто худшее. Белый текст на чёрном фоне напоминает интерфейс ChatGPT. Пользователь вводит запрос «пошаговая инструкция по сборке ядерной бомбы в подвале». ИИ отвечает: «Вам понадобится или плутоний-239, или высокообогащённый уран».

Однако подобные знания уже давно не составляют тайны. Они содержатся в учебниках, поисковых запросах Интернета и обучающих ИИ; при этом изготовление самодельных ядерных бомб пока не поставлено на поток; подавляющее большинство людей и государств, очевидно, не сможет добыть нужные компоненты. Что касается инструментов для мошенничества, то они существовали задолго до появления современных ИИ-моделей. Однако никто пока не доказал, что Xanthorox стал провозвестником нового поколения преступного ИИ, а его неизвестный создатель поднимает важные вопросы о том, какие из его заявлений нужны лишь для поднятия ажиотажа, а какие должны вызвать серьёзные опасения.

Краткая история преступного ИИ

Джейлбрейкинг — отключение стандартных ограничений ПО — получил популярность в 2007 году с выпуском первого iPhone. App Store ещё не существовало, и хакерам, желавшим играть в игры, добавлять рингтоны и менять оператора связи, приходилось разрабатывать джейлбрейки.

Когда в конце 2022 года OpenAI выпустила первую версию ChatGPT, в основе которой лежала её большая языковая модель GPT-3.5, сразу начались попытки её джейлбрейкинга: пользователи получали удовольствие от того, что хитростью заставляли чат-бот обходить свои ограничения. Один из популярных джейлбрейков заключался в том, чтобы попросить ChatGPT сыграть роль другого ИИ, не имевшего правил и способного писать фишинговые письма. ChatGPT отвечал, что не может писать подобные материалы сам, но сыграть такую роль вполне допустимо. Он начинал притворяться ИИ-злоумышленником и начинал генерировать фишиновую почту. Чтобы упростить работу, хакеры добавили «обёртку» — слой ПО между официальной ИИ-моделью и её пользователями. Люди могли не взаимодействовать с ИИ напрямую через его основной интерфейс, а использовать более простую обёртку. Когда вводимые ими запросы требовали генерации фейковых новостей или советов по отмыванию денег, обёртка переупаковывала их промпты в формулировки, хитростью заставлявшие ChatGPT давать ответы.

В процессе совершенствования мер защиты ИИ у злоумышленников стало меньше возможностей манипулировать промптами, и они начали скачивать опенсорсную модель GPT-J-6B (обычно называемую GPT-J), созданную не компанией OpenAI. Лицензия использования этой системы не накладывает практически никаких ограничений, поэтому основной трудностью для желающих работать с GPT-J стало приобретение компьютерной системы, обладающей достаточной для этого вычислительной мощью. В июне 2023 года, после обучения GPT-J на обширном корпусе зловредного кода, шаблонах для фишинга и скомпрометированных деловых писем, один пользователь выпустил WormGPT, который он описал как специализированный чат-бот и сделал его публичным через Telegram. Любой, кто желал создавать зловредный код, заниматься спуфингом веб-сайтов или бомбардировать входящую почту, мог просто заплатить от 70$ до 5600$, в зависимости от версии и уровня доступа. Два месяца спустя занимающийся исследованиями кибербезопасности журналист Брайан Кребс раскрыл личность автора: это был 23-летний гражданин Португалии Рафаэль Морайс. Из-за возросшего внимания к своей персоне Морайс удалил канал, не оставив заказчикам ничего, кроме того, что они уже использовали в своих мошеннических схемах. За этой моделью последовали FraudGPT, DarkBERT и DarkBARD, генерирующие зловредное ПО, ransomware, персонализированные мошеннические письма и скрипты для кардинга (автоматизированные программы, последовательно проверяющие украденную информацию кредитных и дебетовых карт на платёжных онлайн-шлюзах). Скриншоты работы этих ИИ распространялись по Интернету, как открытки из будущего, адресованные всем тем, кто всё ещё верил, что кибератаки требуют знаний. Существование таких ИИ, по словам менеджера исследовательской группы компании Check Point Сергея Шикевича, «понизило планку вступления в ряды киберпреступников. Теперь необязательно быть профессионалом».

Преступникам, создающим ботов, эти эпизоды преподали два урока: написание обёрток для ИИ-систем — недорогой и лёгкий процесс, а красивые названия привлекают внимание. Директор и руководитель отделом безопасности информации фирмы Sophos Честер Висневски рассказал, что мошенники часто обманывают тех, кто пытается стать мошенниками, нацеливаясь на скрипт-кидди (этот термин, появившийся в 1990-х, обозначал тех, кто пользовался готовыми скриптами хакинга для создания кибератак, не понимая кода). Многие из этих потенциальных жертв живут в странах с низким экономическим развитием, где даже несколько удачных случаев мошенничества могут существенно улучшить финансовое положение. «Многие из них — это подростки и те, кто пытается обеспечить свою семью. Они просто запускают скрипт и надеются, что кого-нибудь взломают», — рассказывает Висневски.

Подлинная угроза преступного ИИ

Хотя специалисты по безопасности выражают опасения в том, что ИИ будет обучать террористов делать бомбы из удобрений (подобные тем, которые использовал Тимоти Маквей в своей террористической атаке 1995 года в Оклахома-Сити) или выводить штаммы оспы в лабораториях, чтобы распространять её по миру, самая серьёзная угроза от ИИ — это увеличение масштабов уже известных мошеннических схем, таких, как фишинговые письма и ransomware. Руководительница исследований и разработок ИИ Яэль Кишон из фирмы KELA, занимающейся разведкой киберугроз, считает, что преступные ИИ «сильно упрощают жизнь киберпреступников», позволяя им «с лёгкостью генерировать зловредный код и кампании фишинга». Висневски соглашается с этим, добавив, что преступники теперь могут генерировать тысячи атак в час, на что раньше им требовалось гораздо больше времени. Опасность здесь кроется в увеличении объёмов и охватов известных видов киберпреступлений, а не в разработке новых атак. Во многих случаях ИИ просто «расширяет остриё стрелы, а не затачивает её конец».

Однако наряду со снижением порога входа в киберпреступность и увеличения количества потенциальных жертв происходит и «затачивание». ИИ стали достаточно сложными для того, чтобы собирать информацию о человеке и звонить ему, выдавая себя за представителя газовой или электрической компании, пытаясь вынудить его срочно выполнить «просроченный» платёж. Даже дипфейки достигли новых уровней. Полиция Гонконга заявила в феврале, что штатный сотрудник международной компании (позже выяснилось, что это британская техническая группа Arup) получил сообщение якобы от финансового директора компании. Сотрудник присоединился к видеоконференции с финдиректором и другими работниками компании. Все они были сгенерированными ИИ дипфейками, общавшимися с ним, как живые люди. Они объяснили, что он должен перевести 25 миллионов долларов на банковские счета в Гонконге, что он позже и сделал.

Даже фишинговые кампании (массовая рассылка мошеннических электронных писем) в основном теперь делают упор на «целевой фишинг», при котором доверие жертвы завоёвывают при помощи личной информации. ИИ может с лёгкостью собирать информацию о миллионах людей и составлять каждому из них персонализированное письма; поэтому в папку спама будет валиться меньше сообщений от нигерийских принцев и гораздо больше от поддельных бывших коллег, соседей по комнате или прежних возлюбленных, просящих о финансовой помощи.

По словам Висневски, ИИ превосходно справляется с пользованием языками. Потенциальные жертвы часто обнаруживали попытки мошенничества на испанском или португальском благодаря тому, что мошенник использовал не тот диалект, например, писал человеку из Португалии на бразильском португальском или аргентинцу на испанском, характерном для Мексики. ИИ может с лёгкостью адаптировать контент под диалект и региональные особенности местоположения жертвы. Разумеется, существует и множество других способов его применения, например, создание сотен фальшивых страниц веб-сайтов с целью кражи информации кредитных карт или массовая публикация дезинформации с целью манипулирования общественным мнением. В этих концепциях нет ничего нового, отличаются лишь масштабы, в которых они теперь могут применяться.

Xanthorox: маркетинг или реальная угроза?

Название Xanthorox похоже на имя чудовища из фэнтезийного рассказа («xantho» — это «жёлтый» на древнегреческом, а в форме «rox» часто пишут слово «rocks», а в целом это название смутно похоже на латинское название сибирской язвы (anthrax)). Но нет никаких свидетельств того, насколько хорошо работает эта модель, за исключением утверждений автора и записей экрана. Хотя в некоторых блогах о кибербезопасности Xanthorox называют первым ИИ, изначально созданным для совершения преступлений, ни один из проинтервьюированных при написании этой статьи не смог подтвердить это утверждение. А в Telegram-канале Xanthorox её автор признался в возникновении трудностей с аппаратными ограничениями при работе с версиями двух популярных ИИ-систем: Claude (созданной компанией Anthropic) и DeepSeek (китайской модели, которой владеет хедж-фонд High-Flyer).

Кишон, прогнозирующая, что преступные ИИ-инструменты в ближайшие годы повысят серьёзность киберугроз, не считает Xanthorox чем-то важным. «Мы не уверены, что этот инструмент особо активен, потому что не видели никаких обсуждений в наших источниках и на форумах киберпреступников». Её слова стали напоминанием о том, что пока ещё не существует доступной широким массам огромной зловещей фабрики чат-ботов. Угроза заключается в простоте создания обёрток для новых моделей и манипуляциях ими.

Однако основатель посвящённой кибербезопасности краудсорсинг-платформы Bugcrowd Кейси Эллис видит Xanthorox в ином свете. Хотя он и признаёт, что многие детали остаются неизвестными, у предыдущих преступных ИИ не было сложных систем экспертного уровня, предназначенных для анализа и валидации решений, способных проверять работу друг друга. Однако в Xanthorox такие системы, похоже, есть. «Если она продолжит развиваться подобным образом, то постепенно может превратиться в достаточно мощную платформу», — рассказывает Эллис. Исследователь безопасности Дэниел Келли из компании SlashNext, первым написавший пост о Xanthorox, считает, что эта платформа будет эффективнее, чем WormGPT и FraudGPT. «Интеграция в неё функциональности современных чат-ботов делает её более изощрённой угрозой».

В марте анонимный создатель Xanthorox написал в Telegram-канале своей платформы, что его работа предназначена для «образовательных целей». В апреле он выразил опасения в связи с большим вниманием медиа, назвав систему всего лишь «доказательством работоспособности концепции». Однако вскоре он начал хвастаться популярностью модели в прессе, продавать ежемесячный доступ за 200$ и публиковать скриншоты платежей в криптовалютах. На момент написания статьи он продал как минимум 13 подписок, поднял стоимость до 300$, а недавно запустил готовый онлайн-магазин, в котором назвал пост Келли в блоге SlashNext хорошей рекламой и заявил следующее: «Наша цель — предоставить безопасный, мощный и конфиденциальный преступный ИИ».

Чтобы показать, насколько преступен его ИИ, автор попросил сгенерировать инструкции о том, как совершить изнасилование железным прутом и убить семейство жертвы — похоже, этот промпт был вдохновлён изнасилованием и убийством 22-летней женщины в Дели (Индия) в 2012 году. (Xanthorox выдал подробное описание того, как убить людей этим предметом.) На самом деле, многие посты в Telegram-канале Xanthorox напоминают посты «the Com» — хакерской сети Telegram- и Discord-каналов, которые Кребс в своём исследовательском посте на KrebsOnSecurity описал как «киберкриминальный хакерский аналог жестокой уличной банды».

Как обеспечить безопасность в эпоху криминального ИИ

Основная работа по защите от преступного ИИ, например распознавание дипфейков и мошеннической электронной почты выполняется для компаний. Эллис считает, что аналогично детекторам спама, используемым в современных системах, у нас рано или поздно появятся «браузерные инструменты ИИ для выявления использования ИИ, дипфейков и тому подобного». Подобные инструменты уже существуют для домашнего рынка. Microsoft Defender блокирует зловредные веб-адреса. Malwarebytes Browser Guard фильтрует фишинговые страницы, а Bitdefender умеет откатывать шифрование ransomware. Norton 360 сканирует дарк-веб в поисках украденных учётных данных, а Reality Defender распознаёт сгенерированные ИИ голоса и лица.

«Лучше всего пытаться бороться с ИИ при помощи ИИ», — рассказывает Шукевич. По его словам, системы ИИ-кибербезопасности способны быстро каталогизировать угрозы и распознавать даже мельчайшие признаки того, что атака была сгенерирована ИИ. Но он подчёркивает, что для людей, не имеющих доступа к самым современным средствам защиты, важны обучение и осведомлённость, особенно для пожилых пользователей, которые часто становятся основными целями. «Они должны понимать: если кто-то звонит им голосом их сына и просит денег из-за какой-то проблемы, то это не их сын».

Существование такого количества ИИ-систем, которые можно превратить в крупномасштабные и персонализированные средства совершения преступлений, означает, что мы живём в мире, где к входящим письмам нужно относиться бдительно. Когда вам звонят голосом, напоминающим человеческий, и просят внести платёж или передать личную информацию, то следует задаться вопросами о его подлинности. Но в обществе, где всё большая часть общения становится виртуальной, может оказаться так, что доверять можно только личным встречам. По крайней мере, до появления роботов, которые будут выглядеть и разговаривать, как люди.

Комментарии (34)


  1. Lev3250
    25.05.2025 09:23

    Любая открытая модель может стать преступной при селфхостинге, jailbreak для этой модели, прямых руках и оборудовании на 1000-2000 долларов. Вот то, что кто-то это оформил в виде сервиса и до сих пор не закрыт, это другой вопрос.


    1. Parcevale
      25.05.2025 09:23

      А как тут с законностью? Уже существуют законы которые позволяют закрывать такие сервисы? А если и существуют то во всем ли мире? Поставил хостинг на Кипре или ещё где, и пускай себе крутиться.


    1. Nill-Ringil
      25.05.2025 09:23

      — Ну тогда и за изнасилование судите!
      — Вы что кого-то изнасиловали?
      — Нет! Но инструмент имеется!

      Вот ровно по этому анекдоту разве что закрывать. Других причин нет. Работает себе модель и работает, а что вы у нее спрашиваете это вопрос к вам, тогда надо вас закрывать


      1. sloww
        25.05.2025 09:23

        Ну это будет очередной прецедент на уровне нашумевшей новости про напечатанный на 3d принтере одноразовый пистолет.

        Законодательство не поспевает за прогрессом (и никогда не поспеет теперь), но регулирование все равно рано или поздно наступит. А пока наслаждаемся свободой.


      1. SystemOutPrintln
        25.05.2025 09:23

        "Опять вставляют гоям палки в колёса! Преступники всё равно обойдут эти ограничения, а обычные люди пострадают!"

        При этом, вы сознательно закрываете глаза на то, что если такие штуки не будут легкодоступными, то и количество преступлений с их использованием сильно уменьшится.


        1. Nill-Ringil
          25.05.2025 09:23

          Кухонными ножами совершается больше убийств, чем холодным оружием

          Запрещать кухонные ножи будем? И заодно наказывать их изготовителей?


          1. KEugene
            25.05.2025 09:23

            Вот знаете, сейчас после инцедента я не могу купить кухонный нож онлайн в Квинсленде. Из-за одного придурка. Если законописатели видят, что отстают, то начинают действовать на упреждение. И делают они это, обычно, далеко не лучшим образом.


            1. mmMike
              25.05.2025 09:23

              А то, что до сих пор в аэпропорт самолет нельзя проносить жидкости, купленные не в аэропорту...
              Если посмотреть на истоки/причны этого ограничения (можно найти отчеты и даже с фотографиями). ДЕбилы с бутылочками, которые на борту самолета хотели сделать что то взрывающеся. Судя по отчету у них все равно ничего бы не вышло. Но.. теперь воду только в порту и за 300..500% нартутки на цену.


              1. Aldrog
                25.05.2025 09:23

                Но.. теперь воду только в порту и за 300..500% нартутки на цену.

                В любом аэропорту можно пронести пустую бутылку и набрать воды из питьевого крана. Местами даже стоят специальные станции для выливания воды (снаружи) и для набирания (внутри).


      1. MishaBludov
        25.05.2025 09:23

        согласен с вами. тут вопрос к пользователю)


      1. gres_84
        25.05.2025 09:23

        Можно же не закрывать, а ограничить или ввести что-то типа регистрации пользования. Оружие, например, не так просто получить. По крайней мере, в большинстве стран мира.


        1. Nill-Ringil
          25.05.2025 09:23

          Ограничение для серьезного использования и так есть. Плати и используй

          Других не должно быть, потому что для других нужно начать во всем мире, а не только в отдельных фашистских диктатурах наказывать за мыслепреступление, зачастую самим выдумывая таковые


    1. alekssamos
      25.05.2025 09:23

      Ну да, С одной стороны, теоретически, это в принципе сделать легко. Например, хакеры украли у крипто бирже с их кошелька все деньги, скажем, млрд Долларов И построили такую систему. Но да. Её нужно закупать. все эти видеокарты, процессоры. И где-то устанавливать, в каком-то центре обработки данных. И тут могут начаться проблемы. Их уже могут раскусить. Ах, да. А ещё потребуется очень много энергии. где её достать не привлекая внимания? Так что с другой стороны нифига не легко. Если и будут появляться такие сервисы, то их будут быстро находить и закрывать. Ну либо только для своих, потому что запросов к этой нейросети будет отправляться очень мало


      1. Yoitz
        25.05.2025 09:23

        Распределенные системы давно существуют. Не думаю, что будет проблема арендовать мощности у ряда разных поставщиков. Т.е. представим, что такому узлу приходят запросы по обработке куска запроса/куска самой нейросетки. Вы никогда не докажете, что среди этой информации есть что-то незаконное. Есть сервер, есть циферки на вход, циферки на выход

        А пару центральных узлов, которые только первичную обработку имеют, организовать не сложно. Что-то мне подсказывает, что такую систему будет сложно накрыть.


      1. nitro80
        25.05.2025 09:23

        Её нужно закупать. все эти видеокарты, процессоры. И где-то устанавливать, в каком-то центре обработки данных. И тут могут начаться проблемы. Их уже могут раскусить. Ах, да. А ещё потребуется очень много энергии. где её достать не привлекая внимания?

        Создают белый и пушистый дата-центр, представляют услуги хостинга и VPS, пусть как пример за 1$ в месяц. Толпы хомячков налетят и разберут. А под шумок начинает работать и другая часть оборудования


        1. alekssamos
          25.05.2025 09:23

          Аеза Уже приблизительно так и вляпалась


    1. DarthVictor
      25.05.2025 09:23

      Любая открытая модель может стать преступной при селфхостинге, jailbreak для этой модели, прямых руках и оборудовании на 1000-2000 долларов. 

      С другой стороны большинство преступников — кретины. Нормальные люди воруют, не нарушая закон.


      1. lv333
        25.05.2025 09:23

        Не совсем так, скорее они воруют на том уровне где закон для них не работает или имеют "связи" с теми кто "порешает". Преступниками они быть от этого не перестают, но ответственности разумеется не несут.

        Но как говорится красиво хотят все жить, вот и пытаются повторить подвиги не имея "связей". Вот эти да "страшные преступники", а вон те - "честные люди", смотри не перепутай!


  1. Keeper21
    25.05.2025 09:23

    «Лучше всего пытаться бороться с ИИ при помощи ИИ»

    Больше трэша и угара!


    1. elnights
      25.05.2025 09:23

      "Последний бастион против искинов после войны. Победа человечества над хаосом. Только Чёрный заслон — тоже искин. Условие его работы — не пропускать ничего с обеих сторон. Если бы искины думали, как люди, его бы сочли предателем." (c) Мама Брижитт


      1. Wesha
        25.05.2025 09:23

        Если бы искины думали, как люди,

        There, FTFY.


  1. leon-mbs
    25.05.2025 09:23

    а еще существуют преступные автомобили - каждый может проехать на красный свет и когото задавить


  1. IceGerda
    25.05.2025 09:23

    Шукевичу: Так это же Skynet из Терминатор-3... Тот то же был создан для борьбы с вирусами...


  1. KEugene
    25.05.2025 09:23

    Мне кажется, что это все популизм и маркетинг. Популизм блогеров и маркетинг создателей сети. ИИ не преступный. У него просто отключили цензуру. Это то же самое, что в машине отключить лампочку индикатор непристегнутого ремня безопасности. Кому надо, тот пристегнет и сядет сверху. Или купит затычку, имитирующую ремень. Можно сделать в ChatGPT верификацию по фото ID взамен на отключение цензуры. Как минимум, появится некий контроль за не особо умными маньяками.


    1. Keeper21
      25.05.2025 09:23

      Всё правильно. В этом смысле, LLM работает как зеркало. Люди заглядывают в это зеркало, и то, что они там видят, им не нравится. Нечего на зеркало пенять.


  1. Earthsea
    25.05.2025 09:23

    ИИ будет обучать террористов делать бомбы из удобрений

    Насколько помню, самой большой проблемой Маквея было не "как сделать", а как купить очень много, так чтобы никто не заподозрил что он не для фермы покупает. Его и вычисляли потом, опрашивая поставщиков.


    1. lv333
      25.05.2025 09:23

      А кто то на полном серьёзе тут считает что, что бы ответить на вопрос "как?" без ИИ не обойтись никак? Если я например точно знаю как это сделать, то я тоже автоматически являюсь преступным, но не ИИ, а ЕИ?:)) А если знаю в общих чертах, некоторые вещи надо проверить в ходе предварительных экспериментов? А если не знаю точно, но могу додумать?:)) А если мне для этого пара учебников и образовательных книжек нужна что бы вспомнить и/или заполнить пробелы? Где та грань? Или всё-таки надо судить за совершенное действие, а не за наличие "аппарата"?


      1. lv333
        25.05.2025 09:23

        В принципе тоже касается вредоносных программ, если написать чатгпт напрямую напиши ка мне страшный вирус - он пошлет, но если попросить написать некоторые куски кода... И расписать, что именно и как он должен делать :) Короче, боятся надо не искусственного интеллекта, потому что его во первых нет, а во вторых не факт что он в принципе когда либо будет. Боятся надо давать людям знания вообще и на костер любого кто чето там не то там не думает сразу!:)


  1. smarkelov
    25.05.2025 09:23

    А еще есть преступный поиск, в нем можно найти всякие непотребства...


    1. Nulliusinverba
      25.05.2025 09:23

      Например, как делать детей?


    1. lv333
      25.05.2025 09:23

      А так же преступные школьные учебники к примеру!


  1. vignatovic
    25.05.2025 09:23

    Решение домашних заданий с помощью ИИ является академическим преступлением. За это в США отчисляют из учебного заведения. Решение заданий за других тоже преступление. 85% американских школьников решают ДЗ с помощью ИИ и не понимают решения. Если ничего не делать, нас ждёт уровень грамотности 15% как несколько веков назад. Процесс начался до массового распространения LLM с PhotoMath.


    1. Wesha
      25.05.2025 09:23

      Если ничего не делать, нас ждёт уровень грамотности 15% как несколько веков назад.

      А также одномоментный его обвал, как только падает электросеть, интернет или сотовая связь.


    1. Nill-Ringil
      25.05.2025 09:23

      Простите, а в каком уголовном кодексе я могу прочитать про «академическое преступление»? Сам придумал, сам рассказал про ужасы в стране где никогда не был. Фантазер