Технология «deepfake» несёт в себе глубокие этические последствия, усиливая опасения по поводу дезинформации и манипуляций. Плавно смешивая сфабрикованный контент с реальностью, дипфейки подрывают доверие к СМИ и общественному дискурсу. А так как образы людей эксплуатируются без их согласия, это ставит под угрозу и личную безопасность. 

Проблемы с доверием усиливаются, поскольку отличить правду от лжи становится всё более сложной задачей. Смягчение этих этических затруднений требует упреждающих мер, включая надёжные системы обнаружения и нормативные рамки.

Что такое дипфейки?

Разработки в области генеративного искусственного интеллекта (genAI) и больших языковых моделей (LLM) привели к появлению дипфейков. Термин «deepfake» основан на использовании глубокого обучения (DL) для воссоздания новых, но поддельных версий существующих изображений, видео- или аудиоматериалов.

Глубокое обучение — это особый вид машинного обучения, который включает в себя «скрытые слои». Это ряд узлов в нейронной сети, которые выполняют математические преобразования реальных изображений в действительно хорошие, но поддельные. Чем больше скрытых слоёв в нейронной сети, тем она «глубже». Нейронные сети, и особенно рекурсивные нейронные сети (RNN), известны тем, что довольно хорошо справляются с задачами распознавания изображений, поэтому применять их для создания дипфейков не составляет труда.

Существует два основных вида инструментов. Первый — это генеративно-состязательные сети (GAN), которые настраивают две сети друг против друга. Одна сеть (генератор) создаёт дипфейк, а другая (дискриминатор) пытается идентифицировать его как подделку. Постоянная битва совершенствует фальсификатора и детектора. 

Другой вид — автоэнкодеры, они представляют собой нейронные сети, которые учатся сжимать данные, а затем воссоздавать их. Это позволяет манипулировать данными и генерировать дипфейки, изменяя сжатую версию.

Преступная деятельность с применением дипфейков

Сегодня существует бесчисленное множество законных применений дипфейков, в таких отраслях, как искусство, развлечения и образование. В киноиндустрии эта технология может, к примеру, использоваться для омоложения актеров, позволяя им играть молодые версии самих себя без необходимости в гриме или дублёрах. В последнем фильме об «Индиане Джонсе» актёр Харрисон Форд помолодел на 40 с лишним лет. Также дипфейки используют для «возвращения к жизни» исторических личностей или событий, обеспечивая визуальное представление, которое добавляет глубину и непосредственность повествованию.

Но проблема в том, что дипфейки используются не только в законных целях, особенно это критично для современного общества, в котором подавляющее большинство людей получают информацию о мире и формируют мнения на основе контента из интернета. То есть любой, кто способен создавать дипфейки, может распространять дезинформацию и влиять на массы, заставляя других вести себя так, чтобы это каким-то образом способствовало личным интересам фейкера. Дезинформация на основе дипфейков может сеять хаос в микро- и макромасштабах. 

В небольших масштабах дипфейкеры могут, например, создавать персонализированные видеоролики, в которых, по всей видимости, родственник просит какую-то сумму денег, чтобы помочь ему выбраться из чрезвычайной ситуации.

В глобальном же смысле фейковые видеоролики, на которых известные мировые лидеры делают выдуманные заявления, могут спровоцировать насилие и даже войну. 

Использование синтетического контента для проведения кибератак

В период с 2023 по 2024 год частые фишинговые атаки и кампании социальной инженерии привели к взлому учётных записей, краже активов и данных, хищению личных данных и репутационному ущербу предприятий во всех отраслях.

Печально известной атакой с использованием дипфейка стал инцидент с мошенничеством, который затронул банк в Гонконге в 2020 году. Менеджеру позвонил «директор компании» с просьбой об авторизации перевода, так как компания собирается совершить поглощение. Дополнительно он получил электронное письмо подписанное директором и юристом, которое выглядело как настоящее, но и документ, и голос были фейковыми. Менеджер осуществил перевод. Следователи смогли отследить украденные средства и выяснили, что в мошенничестве было задействовано 17 человек. 

Также возможен риск и для страховых компаний поскольку мошенники могут предоставить доказательства посредством дипфейков для незаконных претензий. Страховое мошенничество с использованием поддельных доказательств — явление не новое. Но если в эпоху аналоговой фотографии требовалось много усилий и опыта, то сегодня инструменты для обработки изображений являются частью любого специализированного ПО. 

Атаки на медицинскую инфраструктуру

Хотя угроза дипфейков в здравоохранении остаётся в значительной степени гипотетической, отрасль активно занимается упреждающим устранением этой опасности. Опасения охватывают несколько ключевых аспектов:

  • ложный контент, может помешать распространению точной информации о здоровье, потенциально подрывая доверие к достоверным источникам;

  • мошенники могут использовать убедительные аудио- и визуальные материалы для обмана пациентов, выдавая себя за медицинских работников чтобы получить конфиденциальные данные;

  • хакеры могут использовать синтезированный звук для взлома больничных систем.

Ещё в 2019 году израильские исследователи продемонстрировали, как с помощью вредоносного ПО можно изменять снимки МРТ или КТ. В рамках демонстрации они взломали и отредактировали медицинские 3D-сканы, чтобы добавить изображения опухолей. Далее были привлечены рентгенологи для интерпретации результатов, которые не смогли различить настоящие и поддельные сканы.

Для проведения подобных атак есть множество мотивов, включая фальсификацию исследовательских доказательств, мошенничество со страховкой, корпоративный саботаж, кражу рабочих мест, терроризм и т. д.

Доказательное воздействие в судебных разбирательствах

Распространение дипфейков может заставить кого угодно усомниться в правдивости доказательств. Тот факт, что фейковая информация может быть как убедительной, так и сложной для идентификации, вызывает опасения и относительно того, как эта технология может поставить под угрозу обязанность суда по установлению истины.

Как защитить себя или бизнес от дипфейков?

Попытка привлечь к ответственности виновных в дипфейках сопряжена с массой проблем. Помимо сложности определения правонарушителей, производители, как и другие киберпреступники, могут работать за пределами государства. При этом, несмотря на то, что дипфейки имеют потенциал широкомасштабных и опасных последствий для нашего общества, они по-прежнему в основном не регулируются законодательством. 

Однако есть несколько мер, которые люди могут предпринять самостоятельно для снижения рисков, связанных с дипфейковыми действиями.

  1. Гласность и бдительность. Знания — это первая линия обороны. Регулярные обучающие сессии и семинары могут снабдить сотрудников компании инструментами для различения подлинного и сфальсифицированного контента.

  2. Безопасные каналы связи. Возможность использования зашифрованных каналов связи и платформ с многофакторной аутентификацией для критически важных деловых коммуникаций, особенно тех, которые связаны с финансами или конфиденциальными внутренними вопросами.

  3. Инвестиции в кибербезопасность. Киберпреступники становятся виртуозами в обращении с искусственным интеллектом, и для того чтобы им помешать может потребоваться бороться с огнём тоже огнём.

Идеального решения для защиты от динамической угрозы мошенничества с использованием дипфейков может и не быть. По мере развития технологий люди будут находить новые способы использовать их как в невинных, так и в иных целях. Тем не менее, существуют стратегии, которые организации и отдельные лица могут использовать для предотвращения мошенничества с использованием дипфейков и смягчения его последствий, если оно произойдёт.

Более того, сейчас ученые, исследователи и основатели технологических компаний совместно работают над способами отслеживания и маркировки контента ИИ. Используя различные методы, формируя альянсы с новостными организациями они надеются не допустить дальнейшего подрыва способности общественности понимать, что правда, а что нет.

  1. Производители Sony, Nikon и Canon начали разрабатывать способы впечатывания специальных «метаданных», которые перечисляют, когда и кем была сделана фотография непосредственно в момент создания изображения.

  2. Некоторые компании, включая Reality Defender и Deep Media, создали инструменты, которые обнаруживают дипфейки на основе базовой технологии, используемой генераторами изображений на основе ИИ.

Но даже если все внедрённые методы окажутся успешными и все крупные технологические компании полностью присоединятся к ним, людям всё равно придётся критически относиться к тому, что они видят в интернете. 

Решение этических, общественных и личных дилемм требует многогранного подхода к обнаружению дипфейков. Также необходимы и правовые рамки для защиты прав и конфиденциальности отдельных лиц. Осведомлённость, информированность общественности об ответственном использовании ИИ должны быть вплетены в бизнес-операции, правительственные инициативы и маршруты заинтересованных сторон отрасли. Сотрудничество между разработчиками технологий, политиками, исследователями и обществом в целом имеет решающее значение для преодоления проблем, связанных с дипфейками. 

Однако, не всё так плохо. У этой технологии есть огромный положительный потенциал для общественности. Она открывает двери для вариантов использования, которые могут принести удивительные преобразования в мир, такие как улучшение доступности для людей с ограниченными возможностями, образовательные инструменты для моделирования различных сценариев и событий, которые в противном случае были бы недоступны, или изобретение персонализированных виртуальных помощников, способных к человеческому взаимодействию и виртуальному общению.

Комментарии (1)


  1. CitizenOfDreams
    07.10.2024 11:56

    дипфейки подрывают доверие к СМИ и общественному дискурсу

    Ну да, СМИ не доверяют именно из-за дипфейков, а не из-за многовековой истории манипуляций, пропаганды и откровенной лжи.