Введение
ИИ, как и любая технология, создаёт как возможности, так и угрозы. Пока учёные находят аномалии в огромном массиве астрономических данных и перебирают миллионы молекулярных комбинаций за несколько часов, мошенники получили доступ к инструментам, повышающим успешность их атак.
В этой статье я подробно расскажу, как мошенники используют ИИ для генерации дипфейков, подделки документов, взлома паролей, фишинга, и какие правила кибербезопасности помогут подготовиться к потенциальным атакам.
Фишинг и социальная инженерия
Фишинг — один и�� древнейших инструментов социальной инженерии. Казалось бы, продвинутые пользователи уже выработали иммунитет и научились выявлять ошибки в тексте, шаблонные фразы и подозрительные домены.
Генеративные модели вдохнули новую жизнь — теперь фишинговые письма пишут так, что и человек, и антиспам-фильтр видят в них нормальную деловую переписку.
Исследователи выяснили, ИИ в 4,5 раза эффективнее пишет фишинговые письма, по сравнению с человеком. GPT и Claude научились хорошо копировать стиль письма, чем мошенники с радостью пользуются.

Всё чаще мошенники используют вишинг — когда искусственный интеллект копирует чужой голос, чтобы выманить деньги или заставить сбросить пароль.
Показательный случай произошел в ОАЭ в 2020 году. Преступники создали голосовой дипфейк директора компании и позвонили банковскому менеджеру с просьбой перевести $35 миллионов якобы для срочной сделки. Атака была продумана до мелочей: сначала пришли поддельные письма от «юриста», а потом раздался звонок с идеально скопированным голосом руководителя. Менеджер поверил — и деньги ушли мошенникам.
Но голосом дело не ограничивается. Теперь появились видеодипфейки, которые используют для выманивания данных. Мошенники устраивают фальшивые видеозвонки с «известными людьми» или проводят поддельные собеседования при приёме на работу.
Яркий пример — северокорейская хакерская группировка FAMOUS CHOLLIMA. Они создали фейковые профили в LinkedIn с фотографиями, сгенерированными нейросетями, и от имени крупных IT-компаний проводили видео-собеседования с реальными специалистами, чтобы выудить конфиденциальную информацию.
Автоматизация скама и спама (чат-боты, генерация контента)
ИИ помогает мошенникам работать на промышленных масштабах. Боты на основе языковых моделей ведут переписку круглосуточно, мгновенно отвечают и копируют манеру общения реального человека. Жертва даже не догадывается, что по ту сторону экрана — алгоритм, а не живой собеседник.
В Великобритании за 2024 год зафиксировали больше 9000 случаев романтического мошенничества — ущерб составил £105 миллионов. Мошенники использовали AI-чатботов и дипфейки, чтобы имитировать влюблённость. Боты молниеносно отвечали на родном языке жертвы, создавали иллюзию близости, а потом начинали просить деньги — якобы на срочную операцию или погашение долгов.

В даркнете появились готовые «ИИ-наборы для мошенников» — инструменты, которые позволяют запустить фишинговую кампанию вообще без навыков программирования.
На одном из подпольных форумов продавался сервис, который автоматически генерировал дизайн фишинговых сайтов под любые задачи. В каталоге были готовые шаблоны мошеннических страниц — ИИ создавал их максимально убедительными и даже оптимизировал под поисковики, чтобы жертвы сами находили эти сайты.

Генерация фейковых личностей (фото, биографии, соцсети)
Мошенники больше не крадут чужие фотографии — они создают несуществующих людей при помощи нейросетей. GAN-модели генерируют лица, которые выглядят абсолютно реально, но при этом не принадлежат ни одному живому человеку.
К такому синтетическому лицу добавляют вымышленное имя и биографию (её тоже часто пишет ИИ), заводят аккаунт в LinkedIn или другой соцсети — и готово. Фейковая личность неотличима от настоящей. Главное преимущество для мошенников: такую фотографию невозможно найти через обратный поиск по картинкам, потому что этого человека просто не существует.
Вот наглядный пример. В LinkedIn появился профиль аналитика Katie Jones из авторитетного аналитического центра CSIS. Она начала добавлять в друзья влиятельных людей из Вашингтона — и многие приняли запрос, включая помощника сенатора и кандидата в совет Федеральной резервной системы.
Позже выяснилось: Katie Jones никогда не существовала. Её лицо сгенерировала нейросеть, а профиль, скорее всего, создала иностранная разведка для сбора информации и установления контактов в политических кругах США.

Подделка документов, изображений, голосов и видео
Сегодня поддельный документ можно создать буквально за секунды. ИИ воспроизводит всё: водяные знаки, специфические шрифты, печати, подписи и даже технические метаданные файла.
Это серьёзная угроза для банковских проверок личности (KYC) и судебной системы.
Схема работает так: мошенники берут данные из утечек — серию и номер паспорта, фотографию человека. Нейросеть автоматически дорисовывает недостающие поля, воссоздаёт страницу паспорта и совмещает всё с реальным фото. На выходе получается правдоподобный снимок «человека с документом в руках», где лицо и данные идеально совпадают.
Сервис OnlyFake – это подпольный генератор документов в даркнете. За $15 он создаёт цифровой паспорт, который почти невозможно отличить от настоящего. Сервис имитирует голограммы, точно воспроизводит шрифты и фон, а также вшивает правильные метаданные в файл изображения.
Насколько это опасно? Журналисты 404 Media провели эксперимент: поддельные паспорты от OnlyFake успешно прошли проверку на нескольких крупных криптобиржах. А сам сервис способен штамповать до 20 000 фальшивых документов в день. Двадцать тысяч. Каждый день.

Взлом аккаунтов и подбор паролей с помощью ИИ
ИИ превратил взлом паролей в конвейер. Нейросети на основе GAN учатся на миллионах слитых паролей и начинают понимать, как именно люди их придумывают. Они замечают паттерны: кто-то добавляет год рождения в конце, кто-то заменяет букву "o" на ноль, кто-то использует имя питомца с восклицательным знаком.
В отличие от старого брутфорса по словарю, где программа тупо перебирает варианты, ИИ-модель думает как человек. Она предсказывает, какой пароль вы, скорее всего, выберете — и угадывает в разы быстрее классических методов.
Исследователи создали нейросеть PassGAN, которую обучили на гигантской утечке паролей RockYou. Результаты впечатляют и пугают одновременно.
В эксперименте PassGAN взломал 47% паролей из тестовой базы почти в 6 миллионов реальных хешей. Это в два раза лучше, чем показывает популярный инструмент для взлома John the Ripper.
Самое страшное — скорость:
За одну минуту ИИ вскрывает около половины самых распространённых паролей
За час — уже 65%
Даже если ваш пароль сложнее, чем "Qwerty123!", теперь это не гарантия, что его однажды не взломают.

Мошенничество в сфере криптовалют (ICO, pump & dump, NFT)
Крипта – ещё одна сфера, где процветает ИИ-мошенничество.
Во-первых, мошенники запускают фейковые проекты, эксплуатируя хайп и fomo: создаются токены с названиями вроде GPT Coin, AI Token и пр., которым приписывают связь с передовыми ИИ-технологиями. Инвесторы, боясь упустить «новый ChatGPT», вкладываются – затем организаторы внезапно пропадают с деньгами.
Во-вторых, ИИ помогает в классических pump-and-dump схемах, имитируя бурную жизнь вокруг проекта: генерирует десятки статей, пресс-релизов и псевдообзоров, которые бездумно индексируются новостными агрегатора��и и поисковыми роботами. Мошенники создают видимость хайпа, накачивают цену и продают на пике, а толпа остаётся с обесцененными токенами.
Отдельно стоит отметить NFT-мошенничества. ИИ здесь служит для генерации контента и имитации активности. Преступники могут с помощью нейросети нарисовать коллекцию NFT-псевдоарт, выдавая её за «уникальную». Далее скрипты прогоняют сотни транзакций между своими кошельками, создавая иллюзию спроса и роста цены (т. н. wash trading). Всего такие фиктивные сделки составляют 24% от общего объёма торгов.

Реальные покупатели, купившись на ажиотаж, приобретают «цифровые картинки» втридорога, после чего интерес к коллекции резко пропадает.
Финансовое мошенничество и подделка транзакций
Раньше мошенники кропотливо подделывали платёжные документы в Photoshop: скриншот банковского перевода, чек об оплате, подтверждение транзакции. Это требовало времени и навыков, а результат часто выдавал себя деталями.
Теперь нейросеть генерирует идеальную подделку за секунды, правильно подбирая шрифты конкретного банка, логотипы и структуру документа. Более того, ИИ может вшить в PDF правдоподобные метаданные, которые практически невозможно проверить вручную.
Схема простая: мошенник отправляет продавцу фальшивый PDF с "подтверждением оплаты". Продавец видит, что деньги якобы отправлены, и отдаёт товар или оказывает услугу. К тому моменту, когда обман вскрывается, преступник уже исчез.
Ещё опаснее — эмулирование транзакций прямо в цифровых системах. Мошенники создают поддельный интерфейс или вредоносное расширение, которое показывает жертве несуществующий перевод. Причём теперь не обязательно быть программистом, такой интерфейс можно навайбкодить.
В 2025 г. злоумышленник похитил 143,45 ETH (≈$460 тыс.) с аккаунта жертвы в результате подделки транзакции. Тут более подробно описана схема, как это прои��ошло.

Вывод
В качестве вывода предложу правила кибербезопасности, которые помогут противостоять ИИ-угрозе:
Используйте менеджеры паролей для генерации и хранения уникальных сложных паролей к каждому сервису. Это нейтрализует эффективность ИИ-взлома через словари.
Включите двухфакторную аутентификацию везде, где возможно — желательно через аппаратные ключи или аутентификаторы, а не SMS.
Любую срочную просьбу о деньгах или конфиденциальных данных проверяйте через альтернативный канал связи. Даже если звонит "начальник" или "родственник".
Сомневайтесь в идеальном. ИИ создаёт слишком правдоподобный контент — безупречная грамматика, профессиональный дизайн.
Регулярно проверяйте, где используются ваши данные, через сервисы мониторинга утечек.
Никогда не переходите по ссылкам из писем — вводите адреса сайтов вручную или используйте закладки.
Договоритесь о кодовом слове с семьёй для экстренной верификации личности при необычных запросах.
Используйте разные email-адреса для разных категорий сервисов (финансы, шопинг, соцсети). Это затруднит связывание ваших данных при утечках.