В начале 2024 года в России появилась новая схема атак на людей — в ней злоумышленники вымогают деньги голосами родственников и друзей, а в корпоративных фродах — голосами руководителей.
Генерация голоса уже замечена в схеме Fake Boss, схеме с поддельным фото банковской карты и схеме угона аккаунта в соцсетях. Больше всего случаев встречается в Телеграме — мошенники взламывают аккаунт, генерируют голос владельца аккаунта и рассылают по всем чатам короткое голосовое сообщение с просьбой выслать денег.
Мы разобрали новую схему по шагам — на примерах рассказываем об атаке на людей, а в конце даем советы, как защитить аккаунты и противостоять новой схеме.
Как мошенники входят в доверие через голоса друзей, родственников и коллег
Дипвойс-фишинг — атака на людей, в которой с помощью поддельного голоса у жертвы вымогают деньги или конфиденциальную информацию.
С начала года дипфойс-фишинг стал активно применяться в схеме Fake Boss, о которой мы уже писали в блоге. Если в конце 2023 года от «руководителей» приходили обычные сообщения, то теперь к ним добавляются голосовые сообщения с припиской вроде «звонок не доходит, сейчас голосом объясню». В феврале о краже личности и голоса сообщили мэр Рязани, мэр Владивостока и мэр Краснодара.
У схемы дипвойс в контексте обычных людей жертвами становятся оба — тот, кто получает голосовые сообщения, и тот, от чьего имени они приходят. Чаще всего такие атаки проводят в Ватсапе, ВК и Телеграме, последний — самая популярная площадка. За последний месяц центр мониторинга внешних цифровых угроз «Солар» выявил более 500 новых доменных имен, созвучных с Телеграмом. Давайте рассмотрим схему по шагам на примере этого мессенджера:
1. Взлом аккаунта
С помощью социальной инженерии злоумышленники получают данные учетной записи пользователя — через фейковые голосования, волна которых наблюдалась в конце 2023 года, и фейковую подписку Телеграм Премиум.
2. Сбор материала
После входа в аккаунт злоумышленники скачивают голосовые сообщения. Если их недостаточно, хакеры собирают образцы из соцсетей.
В январе 2024 года сотрудник из Гонконга перевел мошенникам 25 миллионов долларов после видеозвонка с дипфейками — всего он сделал 15 транзакций. Сначала злоумышленники отправили человеку фишинговое письмо с просьбой обсудить конфиденциальные переводы и прикрепили ссылку на созвон.
На звонке цифровые копии высшего менеджмента знакомыми голосами убедили жертву перечислить деньги на несколько счетов в Гонконге. Подлинность произошедшего выяснилась только через неделю, когда компания обнаружила потери и сообщила в полицию. Для воссоздания участников собрания мошенники использовали видеоматериалы в открытом доступе.
3. Генерация голоса
Раньше голосовые сообщения нарезали из ограниченного количества записей, которые были у мошенников. Теперь ИИ-инструментам достаточно нескольких образцов, чтобы создать правдоподобную речь в потоке.
Мошенники используют голос двумя способами:
Делают запись заранее, чтобы включить ее на звонке и бросить трубку до момента, как человек начнет задавать вопросы. В Телеграме мошенники создают новые сообщения с просьбой занять денег и несколько голосовых сообщений для отработки возражений с посылом «Да это же я, ну хочешь, на вопрос какой-нибудь отвечу?».
Создают модель, которая обрабатывает голос в реальном времени. Нейронные сети изучают особенности речи, интонации, скорости произношения и другие характеристики, чтобы создать достоверный голосовой образ.
Когда пользователь говорит в микрофон, алгоритм анализирует голос → преобразует его в текст → переводит текст в спектрограмму → генерирует новую спектрограмму с заданным голосом → преобразует его в звук. В зависимости от доступа мошенников к другим ИИ-инструментам, к голосовым фейкам добавляются еще и видеокопии людей.
4. Генерация фото банковской карты
С помощью OSINT — разведки по открытым источникам — мошенники ищут данные паспорта жертвы и генерируют фото карточки известного банка с именем и фамилией отправителя. Фото создает специальный Телеграм-бот — такая схема, но без голосовых сообщений, стала популярной летом 2023 года. Номер, указанный на карте, привязан к счету мошенника в другом банке, как правило, малоизвестном.
5. Атака
Мошенники используют голосовые сообщения по-разному: одни отправляют его в начале переписки, чтобы сразу вызвать реакцию, другие — по ходу разговора, когда получатель больше всего сомневается в правдоподобности происходящего.
Во втором случае мошенники сначала втираются в доверие и начинают диалог с текстовых сообщений — могут продолжить начатый диалог или поднять старую тему, которую обнаруживают в переписке. Когда интерес подогрет, рассылается поддельное голосовое сообщение в личной переписке и во всех чатах, где состоит владелец аккаунта.
Вот несколько примеров успешных атак через голосовые сообщения с начала года:
Кто |
Сколько денег отдал мошенникам |
На чей голос среагировал |
В какой форме проходила атака |
275 тысяч рублей |
Бабушка |
Телефонный звонок |
|
100 тысяч рублей |
Муж сестры |
Голосовое сообщение в Телеграме |
|
40 тысяч рублей |
Подруга |
Голосовое сообщение в Телеграме |
|
100 тысяч рублей |
Соседка |
Голосовое сообщение (мессенджер не назван) |
Схема опасна тем, что мошенники используют несколько факторов идентификации жертвы — аккаунт, голос и банковскую карту. Это вызывает больше доверия к отправителю
В атаках на сотрудников сочетаются несколько каналов связи: электронное письмо, текстовое сообщение в мессенджере и аудиосообщение. Мошенник под видом топ-менеджера или партнера отправляет жертве электронное письмо о заключении важного контракта, который нужно оплатить до конца дня. После этого злоумышленник генерирует фразу «Деньги нужны уже сейчас, не затягивайте нам сделку!» — этим он давит на срочность и подчеркивает авторитет.
В 2020 году в ОАЭ группа из 17 преступников украла таким образом у банка 35 миллионов долларов. Случайный сотрудник поверил поддельному голосу директора на звонке якобы компания готовится к крупной сделке — деньги нужно было быстро прислать на «новые» счета фирмы. Для большей убедительности преступники отправили электронные письма от компании и даже поставили в копию «юриста».
Быть успешным мошенником стало проще
Мошенники не становятся умнее и виртуознее, а вот технологии — становятся. Голосовые нейросети пока плохо различают нейтральные и противоправные запросы в части фишинга, это делает их уязвимыми перед запросами злоумышленников. ИИ не может выдать ошибку, когда его просят сгенерировать фразу «Мама, скинь денег на эту карту», потому что сама по себе эта фраза безобидная и не подпадает под ограничения.
С текстовыми нейросетями ситуация чуть лучше. Если сразу попросить ИИ написать фишинговое письмо — он этого не сделает.
Но стоит поискать слабые места в ограничениях, убрать ключевые фразы — и вуаля — ChatGPT готов содействовать мошенникам:
В начале 2024 года OpenAI и Microsoft отключили учетные записи, связанные с хакерскими группами Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet и Forest Blizzard, согласно отчетам обеих компаний.
Хакеры использовали языковые модели OpenAI для поиска инструментов по кибербезопасности, разведывательной деятельности и создания контента для фишинговых атак. Обе компании заявили, что хотят улучшить свои методы борьбы с хакерскими группами. Для этого они будут инвестировать в технологии мониторинга, сотрудничать с другими ИИ-компаниями и повышать прозрачность в отношении возможных проблем безопасности, связанных с ИИ.
Как защититься от атак с поддельным голосом
Вот что обычно рекомендуют делать, чтобы не стать жертвой мошенников:
удалять голосовые сообщения сразу после прослушивания;
установить автоудаление всей переписки;
не выкладывать в сеть видео с голосом;
прислушиваться к шумам на записи и неестественным интонациям;
придумать с близкими секретный пароль для таких случаев.
Проблема таких советов — им сложно следовать. Люди ценят личные сообщения и не всегда хотят удалять переписки. Контролировать каждый свой шаг в соцсетях смогут только те, кто и так ничего не выкладывает, в остальных случаях можно что-то пропустить. Ну а неестественные интонации и шумы на записи можно не заметить, если человек в этот момент находится на улице или в другом шумном месте.
В тех примерах, которыми жертвы поделились в СМИ, видны совсем короткие голосовые записи — до 10 секунд. В коротких записях гораздо меньше погрешностей на тембр, интонацию и особенности речи, в длинных же записях больше шансов не попасть в исходный голос. Кажется, что логичным в этом случае было бы попросить прислать длинное голосовое сообщение, но под влиянием ситуации жертва не вспомнит о такой опции, к тому же не захочет показаться бестактной, когда человек просит о помощи.
Вот что предлагаем мы:
свяжитесь с отправителем сообщения по альтернативному каналу связи. Если человек не может принять аудио/видеозвонок, напишите в другом мессенджере, отправьте СМС или свяжитесь через общих знакомых или коллег.
не бойтесь упустить время. Неважно, получили вы голосовое сообщение с просьбой отправить деньги на работе или от близких, лишние 10–20 минут на верификацию не приведут к катастрофе. Лучше взять паузу и перестраховаться.
сделайте свои соцсети приватными. Да, часть данных о вас уже в сети, но вы можете ограничить доступ к образцам вашего голоса и к списку друзей через настройки приватности в соцсетях.
Тренировать сотрудников выявлять дипфейки в корпоративной среде можно с помощью интерактивных курсов — один из таких материалов мы разработали в Start AWR. На курсе «Дипфейк — идеальный инструмент для мошенников» сотрудники узнают:
виды, цели и угрозы, которые представляют дипфейки;
методы дипфейк-фишинга;
способы обнаружения дипфейков на видео и аудио;
правила защиты от этого вида мошенничества.
Начните бесплатный пилот Start AWR на 30 дней — назначьте сотрудникам курс о дипфейках и оцените результаты.
Комментарии (5)
Sarjin
14.03.2024 14:52интересно когда фильмы и игры начнут переводить на все популярные языки. может еще лет через 5-10
thescarletarrow
14.03.2024 14:52Меня удивляет почему все переводят деньги на левую карту даже если представляются другом или членом семьи? У меня все переводят по номеру телефона и перед этим спрашивают еще а "отчество" это ты?
homoastricus
А ведь не за горами и дипфейки по видеозвонкам и видеосообщениям.
Rockstar
Уже был случай видео конференции с дипфейками. Чел перевел большую сумму денег в итоге.
inkelyad
<режим параноика со склонностью предлагать странные устройства>
Нужен кулон-'ключ'. С батарейкой, пищалкой-динамиком и микрофоном. Который может громко (чтобы микрофоны используемой системы связи услышали) пропищать одноразовый пароль - подтверждение. Парный, соответственно, должен уметь услышать и подтвердить, что все верно.
Кто из местных любителей ковырять микроконтроллеры сделает?