Дипфейк. Что первое приходит на ум, когда вы слышите или видите это слово? Наверное, какие-то картинки или видео откровенного характера, но что если я скажу вам, что такой жанр подделок давно уже вышел за любые рамки здравого смысла и проник абсолютно в каждую отрасль, которая, так или иначе, связана с интернетом?

После определенной череды событий, а именно пандемии COVID-19, в 2020 году, активизировалась форсированная интеграция компьютерных технологий в массы, которая выделила среди общего количества группу неопытных и легко внушаемых пользователей, что создало благоприятную почву для развития дипфейков. 

Подделки, созданные с использованием ИИ, не всегда производят лишь смеха ради. Всё чаще они используются во злой умысел, и ребром стоит вопрос об их обнаружении, но обо всем по порядку.

Что же такое DeepFake на самом деле?

Термин говорит сам за себя, и ясен даже простому обывателю, ведь это соединение двух слов «глубокий» (в контексте ИИ чаще понимается как глубокое обучение) и «подделка». Глубокое обучение — это совокупность методов машинного обучения, основанных на создании представлений, а не специализированных алгоритмов под конкретные задачи. В этом определении и заложен основной принцип искусственного интеллекта. Что такое «подделка», думаю, объяснять не стоит.

DeepFake — это изображения или видео, в основах генерации которых используют технологии искусственного интеллекта, в результате чего один фрагмент накладывается поверх другого с поразительной точностью и очень часто различить «на глаз», где подделка, а где оригинал, становится невозможно. 

Эта технология, по своей сути, была создана лишь для того, чтобы подделка осталась незамеченной, хотя изначально она была предназначена лишь для повышения анонимности в сети. И основной её характеристикой как раз таки является «возможность казаться реальной», поэтому, по моему скромному мнению, большинство преступлений, связанных с дипфейками, так и останутся незамеченными.

Для примера — рассмотрите эту гифку. Если бы вы никогда не видели этот фильм прежде и смотрели на изображение справа, смогли бы вы понять, что здесь что-то не так? Может, и взаправду Николас Кейдж сыграл в этом фильме барышню или, быть может, это какой-то неудачный дубль с проб? 

Конечно, если обратить внимание на картинку слева, то все становится очевидно. 

Также добавлю от себя ещё такое определение. DeepFace — это изображение человеческого лица, генерируемое ИИ (искусственным интеллектом, далее буду использовать лишь сокращенный вариант) на основе его представлений о том, как должен выглядеть человек. Но это одновременно означает, что такого человека никогда в принципе не существовало, и его лицо — лишь «плод воображения» машины.

Можете ли вы представить, что лицо этого мужчины никогда не существовало? А это так. В этой статье я хотел бы отметить особую опасность таких вот генераторов, ведь злоумышленники зачастую используют эти фото в своих схемах, где нужно выдать себя за кого-то другого.

Проблематика DeepFake

Несмотря на то, что о дипфейках трубят из всех возможных источников, исследование журнала “Security Week” в 2019 году показало, что 72% пользователей до сих пор не имеют четкого представления о том, что же это за подделка такая и как её определить. 

Зачастую фальшивки используют для создания дезинформации или ложных сведений, которые исходят из якобы проверенного источника. Таким образом, мошенник может влиять на гражданское общество, изменять мнение масс, позиции и делать все, что ему только заблагорассудится. Но существует и второй вектор, который направлен против отдельных лиц или компаний для получения финансовой прибыли, простыми словами — для шантажа. 

Угроза кибербезопасности для компаний заключается в том, что дипфейки могут повысить эффективность фишинга и упростить мошенничество с идентификацией, манипулировать репутацией компании.

Для наглядности представьте себе следующую ситуацию. Заседание директоров некой компании в онлайн-режиме. Все тихо, мирно, вы ведете переговоры с подрядчиками, или что там ещё делают на заседаниях. И вдруг на конференцию врывается ваш руководитель, и начинает нести всякую чушь, например, требовать срочно перевести ему пять тысяч рублей на кошелек Биткоин. Да, скорее всего, удивитесь поведению руководителя, но также, вероятно, поддадитесь на его уговоры, ведь у вас даже мысли не возникнет, что это не он. Так работает дипфейк...

Теперь перейдем к отчету от CyberСube, которые поведали о статистике использования дипфейков в киберпреступлениях. 

«Способность создавать реалистичные аудио- и видеофейки с помощью ИИ неуклонно растет. Дипфейки способны не только дискредитировать влиятельных людей, но и потенциально нанести вред обществу в целом, в связи с чем многие эксперты по безопасности прогнозируют, что дипфейки могут стать серьезной угрозой уже в 2021-2022 гг.».

На момент публикации этого отчета в нем шла речь о том, что все ещё можно отличить подделку, лишь присмотревшись. Прошло два года и автор словно в воду смотрел, ведь на данном этапе развития качественные фальшивки практически неотличимы от оригинала.

 «Новые и появляющиеся методы социальной инженерии, такие как фальшивые видео и аудио, коренным образом изменят ландшафт киберугроз и станут технически осуществимыми и экономически жизнеспособными для преступных организаций любого размера», — говорится в отчёте CyberCube.

По статистике за 2020 год только в США было совершено более миллиона махинаций с использованием технологии дипфейк. 

В том же 2020 году выходит отчет Университетского колледжа Лондона (UCL), фальшивый аудио- или видеоконтент был признан экспертами наиболее тревожным использованием ИИ с точки зрения его потенциального применения для совершения преступлений или терроризма.

В этом же отчете авторы добавили небольшое примечание, что достаточно мало преступников имеют соответствующие умения для создания суперреалистичных подделок. По правде говоря, последнее утверждение не сыскало подтверждения в сегодняшних реалиях.

Основные векторы подделок в 2022 году

  1. Финансовое вымогательство 

Преступления, связанные с финансами, становятся все более и более изящными с каждым днем благодаря развитию технологии дипфейков. Существует несколько десятков методов проведения всего этого, но давайте выделим парочку наиболее актуальных и популярных: 

  • Фальсификация видео- или фотоматериалов в унижающей или компрометирующей манере; преступник, сгенерировав такие материалы, начинает требовать у жертвы выкуп, угрожая отправить подделки в сеть или кому-то из родных/близких. 

  • Как бы ни было смешно, но пока что технология FaceID далека от реальности. Её прямая уязвимость заключается в том, что она не способна различать подделки. Поэтому к полноценному вектору атак с использованием дипфейков можно отнести и обход FaceID банковских приложений. 

  • Использование программного обеспечения дипфейк для подделки голоса с последующей манипуляцией окружением жертвы. Представьте ситуацию, когда злоумышленник уже получил доступ к мессенджеру какого-то директора фирмы. Естественно, он может просто создать текстовое сообщение с подробным описанием инструкций по переводу денег на нужный ему счет. Но если смотреть с точки зрения психологии, то подчиненный, услышав голос своего шефа, явно будет доверять сказанному больше, нежели просто тексту. Да и, как по мне, здесь попросту исчезают любые сомнения. Сюда же можно отнести и «Алло, мам, я попал в аварию, мне срочно нужны деньги». 

  1. DeepNudes как наиболее деструктивный метод подделки 

История дипфейков DeepNude началась с одноименного приложения, которое позволяло пользователям удалять элементы одежды с фотографий. Однако в скором времени начало массово использоваться злоумышленниками для шантажа. Приложение было закрыто, но название DeepNude крепко закрепилось за подделками такого типа. 

Естественно, deepnudes используется не только в развлекательных целях. Такая технология также служит основательным рычагом давления во время шантажа. 

Под прямой удар всего этого дела попали различные блогеры и медийные интернет-персоны. И не только девушки. Фундаментально метод нацелен на всю социальную жизнь жертвы и требует подготовки в виде изучения социальных контактов и всего прочего. 

Созданная подделка отправляется жертве, а после, под угрозой дальнейшего распространения, злоумышленник требует выкуп. Хотя после его уплаты материалы зачастую все равно утекают в сеть. 

Об истории и детальной проблематике можете почитать вот здесь, прелестная статья, которая детально все описывает. 

  1. Подделка паспортных данных с целью дальнейшего использования в мошеннических схемах 

В 2021 году в Китае раскрыли группу мошенников, которые подделывали паспортные данные и оформляли интернет-кредиты, обманывали налоговую с помощью технологии дипфейк. За несколько лет своей деятельности им удалось заработать около 75 млн $. 

  1. Политические манипуляции 

Думаю, что ни для кого не секрет, что в политике важную роль играет мнение общественности. С помощью технологии дипфейк и нескольких одаренных лиц можно создать целую империю поддельного контента, которая будет напрямую влиять на общественность. 

Допустим, можно просто заменить лицо одного человека на другое, но это является не самым идеальным методом. Ведь если аккуратно изменить движение губ на видеоролике и наложить на него совершенно другую аудиодорожку, которую аналогичным образом подделать, то можно породить контент, в котором человек произносит совершенно другие вещи, нежели в оригинале. 

Центр безопасности и новых технологий (CSET) Джорджтаунской школы дипломатической службы Уолша в июле 2021 г. подготовил развёрнутый доклад о дипфейках.

Основные тезисы доклада следующие:

Во-первых, злонамеренное использование грубо сгенерированных дипфейков станет проще со временем по мере превращения технологии в товар.

Во-вторых, специализированные дипфейки, созданные технически продвинутыми участниками, со временем будут представлять большие угрозы.

Авторы доклада считают, что технологии дипфейк все чаще интегрируются в программные платформы, где не требуются специальные технические знания. Простота в их использовании упрощает «замену лиц» — удаление одного лица из изображения или видео и вставку другого – и делает их все больше доступными для пользователей без технических знаний.

Обнаружение дипфейков: мелкие детали уже не помогут

В 2021 году в свет вышла небольшая заметка, в которой рассказывалось об основных недочетах подделок и как их можно определить. Кратко выделю основные факты: 

  1. Недочеты от подделки к подделке повторяются, что указывает на несовершенство существующих технологий дипфейк. 

  2. Фальсифицированные материалы первого поколения (первые подделки в помощью ИИ) отличаются наличием разного цвета глаз. В природе гетерохромия — редкость. Но в сети она встречается гораздо чаще, нежели в реальном мире. Также усомниться в подлинности изображения стоит, если на портрете разные расстояния от центра глаз до края радужной оболочки, а лимбы не обладают правильным округлым контуром. 

  3. Зубы для дипфейков — проблема проблем. Их прорисовка зачастую хромает. Слева — подделка (очень некачественная с множеством артефактов), справа — оригинал.

  1. Сравнения отражений в роговице глаза считается самым продвинутым методом определения подделок. Правда, сработает это лишь в случае, когда злоумышленник не шибко умен или ленив. Ведь на на данном этапе развития убрать различия в отражениях не составит труда, и я вам это докажу.

Проверяем популярные инструменты для определения дипфейков на собственной шкуре

Для создания этой главы я потратил около 24 часов на обучение модели в DeepFaceLab, использовать уже готовые я не рискнул, так как был большой шанс того, что они не подойдут для наших целей. А онлайн-генераторы делают все настолько плохо, что даже невооруженным взглядом можно понять, что это подделка. 

Для определения подделок, сделанных ИИ мы будем использовать ИИ. Клин клином вышибают? Получается, что так. Представляю вам список репозиториев, которые примут участие в нашем небольшом эксперименте, они имеют наибольшее количество звезд на GitHUB: 

  1. dessa-oss/DeepFake-Detection

  2. FaceOnLive/DeepFake-Detection-SDK-Linux

  3. dessa-oss/profake-detection

  4. Intel Real-Time Deepfake Detector 

Сразу стоит отметить, что каждая из представленных мною программ-утилит очень требовательна. И только для их запуска ваше устройство должно иметь минимум 32 ГБ оперативной памяти и современный многоядерный процессор. Во избежание лишней нагрузки на свои девайсы, рекомендую воспользоваться виртуальной машиной. 

Лично мой выбор пал на Google Shell — быстро, просто и без суеты.  

Установим первый репозиторий: 

  1. Сперва нужно провести инсталляцию Nvidia Doker’a, сделать это можно с помощью одной длинной команды: 

docker volume ls —q —f driver=nvidia—docker | xargs —r —I{} —n1 docker ps —q —a —f volume={} | xargs —r docker rm —f
sudo apt—get purge nvidia—docker
  1. А далее просто копируем репозиторий себе:

sudo apt install ffmpeg
git clone https://github.com/dessa—oss/DeepFake—Detection.git
cd DeepFake—Detection 
  1. После этого нам нужно запустить скачивание Фейс Сетов, то бишь образцов лиц подделок: 

bash restructure_data.sh faceforensics_download.py
  1. А затем запустить обучение модели: python3 train.py 

Само обучение может занять колоссальное время, но чем дольше, тем лучше. После 12 часов обучения, пробуем определить, является ли мой дипфейк (скрин ниже) в глазах ИИ действительным:

python3 hparams_search.py 1.jpg

И результат неутешительный. А вот Тома Хенкса распознало отлично, хотя в случае с его подделкой там и прибегать к ИИ не нужно. 

Второй репозиторий, оказалось, имеет удобный Web-интерфейс и не нуждается в инсталляции. Он без особых проблем определил созданный мною дипфейк, а вот справится ли он с более тяжелой задачей... Давайте проверим.

И снова успешное определение. Действительно, неплохо. 

О третьем репозитории говорить ничего не стану, так как он полностью не оправдал количество звёзд и не определяет даже самую плохую подделку. 

А теперь поговорим об Intel Real-Time Deepfake Detector, который побудил меня к написанию этой статьи. 

Intel представила продукт, который является самым первым в мире детектором дипфейков в реальном времени. Они утверждают, что FakeCatcher имеет точность 96% и работает путем анализа потока в видеопикселях с использованием инновационной фотоплетизмографии (PPG).

FakeCatcher отличается от большинства детекторов, основанных на глубоком обучении, тем, что он ищет подлинные подсказки в реальных видео, а не просматривает необработанные данные, чтобы обнаружить признаки недостоверности. Его метод основан на PPG, методе, используемом для измерения количества света, который либо поглощается, либо отражается кровеносными сосудами в живой ткани. Когда наши сердца качают кровь, вены меняют цвет, и эти сигналы улавливаются технологией, чтобы определить, является ли видео подделкой или нет. 

В интервью VentureBeat Демир (один из создателей инновационного приложения) сказал, что FakeCatcher уникален, потому что сигналы PPG «ранее не применялись к проблеме дипфейка». Детектор собирает эти сигналы с 32 точек на лице, прежде чем алгоритмы преобразуют их в пространственно-временные карты, и до того как будет принято решение о том, является ли видео реальным или фальшивым.

Intel говорит, что детектор может использоваться платформами социальных сетей, чтобы пользователи не загружали вредоносные дипфейки, а новостные организации могут использовать его для предотвращения публикации подделок.

На данный момент инструмент доступен в режиме тестирования, потому давайте проверим, справится ли он с определением нашего дипфейка.

И он безоговорочно определяет любое фото или видео из сети интернет, включая и сделанный лично мной. 

Небольшие итоги тестирования: 

  1. Первое место получает FakeCather от Intel, который с легкостью определил 19 из 20 дипфейков. 

  2. Второе место получает репозиторий из Гитхаб — DeepFake-Detection-SDK. 12 из 20 определений. Это 60%, а именно такое значение было указано в его описании. 

  3. Третье место занимает репозиторий DeepFake-Detection-oss — 10 из 20 определений. Это 50% и на 20% ниже, чем было заявлено. 

  4.  Аутсайдер — репозиторий из ГитХаб profake-detection. 2 из 20. Тут без комментариев. 

Помимо этих репозиториев, я также решил проверить и различные сервисы, они очень просты в использовании, но для некоторых потребуется регистрация или активация пробного периода. Могу сказать, что большинство из них нацелены на определение подделок ужасного качества: 

  1. Первое место в этом списке получил deepware.ai, определив 11 из 20 дипфейковых видео. 

  2. Второе место за duckduckgoose.ai с 10 из 20 определений. 

  3. Третье место за Reality Defender с 9 из 20 определений. 

Выводы

Дипфейк — технология, основанная на ИИ, которая позволяет подделывать изображения, а именно человеческие лица или их части, с поразительной точностью. На данном этапе развития DeepFake можно причислить к одной из самых опасных угроз кибербезопасности последних годов.

Но вместе с прогрессирующей технологией подделки развиваются и методы её разоблачения. Сегодня мы разобрали самые популярные репозитории и ресурсы, которые представляют возможность определить фальсификации, и представили некий топ. Intel — класс! Ожидаю полноценного релиза для более глубокого изучения функционала этого детектора. 

А на этом у меня все. Бывайте.

Автор статьи @DeathDay


НЛО прилетело и оставило здесь промокод для читателей нашего блога:

— 15% на все тарифы VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.

Комментарии (3)


  1. Plesser
    23.12.2022 13:01
    +1

     Его метод основан на PPG, методе, используемом для измерения количества света, который либо поглощается, либо отражается кровеносными сосудами в живой ткани. Когда наши сердца качают кровь, вены меняют цвет, и эти сигналы улавливаются технологией, чтобы определить, является ли видео подделкой или нет. 

    ну значит ждем совершенствование deepfake - технологий, которые начнут это тоже подделывать. Эта ̶г̶о̶н̶к̶а̶ ̶в̶о̶о̶р̶у̶ж̶е̶н̶и̶й̶ соревновательная среда будет порождать все более изысканные решения, и конца ей увы не видно....


    1. NemoVors
      23.12.2022 15:57
      +1

      Если какой-то эффект, используемый для вычисления подделки, можно записать и воспроизвести на цифровом фото/видео, значит его можно и повторить. Вопрос лишь в технологии да в требуемых мощностях. Так что мне кажется да, тут deepfake все равно будет впереди всех методов обнаружения.


      1. Plesser
        23.12.2022 16:05

        Ну как бы злоумышленники всегда были на шаг впереди :)