image

Искусственный интеллект, т.е. слабая его форма, дает человечеству большое количество благ, включая экономические, научные, социальные и все прочие. Но есть у ИИ обратная сторона — это дипфейки и все, что с ними связано.

Уже сейчас достаточно высококачественных подделок — якобы реальных видеозаписей политиков, актеров и других знаменитостей. Пока что специалисты могут отличить дипфейк от настоящего видео, но не за горами время, когда это может стать невозможным.

В чем опасность?


Еще в июле 2019 года компания Symantec обнаружила несколько случаев масштабного обмана злоумышленниками представителей крупного бизнеса. Аферы по созданию аудиодипфейков стоили компаниям-жертвам многие миллионы долларов. Во всех случаях подделки заключались в копировании голоса руководителя компании, который говорил сотруднику перевести деньги на определенный счет.

Что касается видео, то ролики все еще не очень реальны. Да, непосвященный в технологии создания дипфейков человек может и не отличить подделку. Но специалист это способен сделать без труда. Но это видео, а вот аудио представляет собой серьезную проблему — подделку можно выявить лишь после серьезного анализа. И то, всегда будет существовать вероятность, что «оригинал» все же является подделкой. Уже через годик-другой и анализ не поможет.

Как это работает?


Дипфейки чаще всего базируются на технологиях глубокого обучения, включая генеративно-состязательные сети (GAN). В этом случае GAN представлена двумя конкурирующими нейронными сетями. Они как бы играют, соперничая друг с другом, что приводит к созданию все более качественного синтезированного аудио.

Используется эта технология и в обработке изображений. Так, GAN, предназначенная для создания поддельных фотографий, cостоит из двух интегрированных глубоких нейронных сетей. Первая сеть, называемая «генератором», генерирует изображения. Вторая сеть, обученная на наборе данных, состоящем из реальных фотографий, называется «дискриминатором».

Такой «союз» приводит к созданию удивительно реалистичных изображений. Попробуйте ввести запрос «поддельные лица GAN» и вы сразу поймете, что мы здесь обсуждаем. При этом изображения, по большей части — генерированные с нуля, на них изображены несуществующие люди.

GAN могут использоваться и для обучения автопилота машины, либо же для создания очень надежных систем распознавания лиц.

А еще GAN могут использоваться для генерации голоса для людей, которые утеряли возможность говорить. Ну, либо людей, которых уже нет с нами. Это делается уже сейчас — для ряда здравствующих знаменитостей с проблемами голоса синтезирован аналог, максимально приближенный к их собственному голосу.

Так в чем опасность?


Объяснение уже давалось выше, с примером про обман компаний. Можно и наложить лицо политика на лицо человека-актера, который выполняет какие-то предосудительные действия или говорит что-то из ряда вон выходящее. Накануне выборов — отличный способ снизить рейтинг.

Эти технологии активно используются. В 2019 оду, например, в сети было не менее 15 000 дипфейков, что на 84% больше, чем в 2018 году. Правда, тогда по большей части выкладывались дипфейки категории ХХХ. Сейчас же ситуация постепенно меняется, это уже далеко не безобидные шутки.

Достаточно реалистично выглядящий дипфейк может в буквальном смысле слова изменить ход истории. Такие инструменты могут оказаться в руках очень недобросовестных людей. Хотя, зачем добросовестному человеку, если он не создает контент для фильмов или мультиков/рекламы, подобные вещи?

А вот для мошенников все это — просто золотое дно. Помимо компрометирующих роликов и записей голоса, дипфейки могут использоваться для шантажа, финансового или страхового мошенничества, манипуляций на фондовом рынке. Выше уже упоминался вариант с понижением рейтинга политика. Но таким же образом можно обрушить курс акций какой-либо компании.

Для судебной системы дипфейки — просто страшный сон. Если не будет надежного способа отличить выдумку от реальности, доказательства, предоставляемые в суде, можно будет просто выбросить. Для того, чтобы этого избежать, уже сейчас появляется ПО, которое выполняет роль своеобразного антивируса — оно идентифицирует дипфейки. В будущем такого софта будет больше.

Насколько серьезна эта проблема?


Создатель GAN утверждает, что вряд ли можно узнать настоящее или поддельное изображение, если просто на него посмотреть. Придется использовать механизмы аутентификации оригинальных фото и видео — что-то вроде вотермарок.

Вполне может быть, что в ближайшем будущем камеры и мобильные телефоны станут вставлять собственную цифровую подпись в контент. Стартап Truepic уже предлагает для этого технологию — и клиенты у компании из крупных страховых компаний довольны.

Но если дипфейки выйдут на новый уровень, отличить их будет невозможно от оригинала. В этом случае мы попадем в условия новой реальности — где все, что видим и слышим, может оказаться иллюзией. Собственно, все это может оказаться угрозой как социальному порядку, структуре, так и экономической системе.

Риски весьма велики, так что их стоит учитывать в будущем, разрабатывая новые ИИ-технологии. Как это сделать — второй вопрос. Может быть, разработать законодательную базу, или создать какую-то новую технологию. Но делать это нужно уже сейчас, до того, как появится по-настоящему серьезная проблема.

Комментарии (11)


  1. Gordon01
    08.10.2021 06:20
    +2

    Давно уже пора перейти на некопируемые физические токены для авторизации. Пусть не так удобно, как биометрия, но, имхо, у биометрии в банках (и подобном) срок будет короткий как раз из-за указанных проблем.


    А потом снова вернемся к физическим генераторам одноразовых паролей, токенам да прочим TPM.


    Жаль, что не все это понимают


    1. S-e-n
      08.10.2021 06:26

      некопируемые
      Так бывает?


      1. uhf
        08.10.2021 07:44
        +3

        Думаю, можно считать физический носитель с электронным ключом некопируемым, если стоимость его копирования превышает стоимость того, что этот ключ защищает.


  1. Hayate
    08.10.2021 07:04
    +17

    Но если дипфейки выйдут на новый уровень, отличить их будет невозможно от оригинала. В этом случае мы попадем в условия новой реальности — где все, что видим и слышим, может оказаться иллюзией. Собственно, все это может оказаться угрозой как социальному порядку, структуре, так и экономической системе.

    Бедные люди, как же они жили до появления видосиков. Наверное жутко страдали от текст-фейков, когда нельзя было отличить реальность в написанном тексте или нет. Всё что они читали - могло оказаться иллюзией!


    1. Wesha
      16.10.2021 05:07
      +1

      Всё что они читали - могло оказаться иллюзией!

      Этой фичей активно пользовались такие широко известные аферисты, как братья Гримм и Г. Х. Андерсен!


  1. deepform
    08.10.2021 07:27

    Хорошо, что меня больше привлекает больше научпоп, чем новости про знаменитостей и политота


  1. redneko
    08.10.2021 09:13
    +5

    Пфффф, ИИ, дипфейки, тоже мне. Был такой ролик на еще тогда ОРТ: "Человек, похожий на...", про генпрокурора Скуратова. И без всякого ИИ обошлись. Чем легче будет сделать подделку - тем меньше будет доверия ей. Золотое правило - не верить ничему, проверяя всё по возможности максимально.


  1. Bone
    08.10.2021 09:59

    Зато начнется практически полная анонимность. Можно будет говорить и делать что угодно, а потом просто сказать, что это дипфейк.


    1. Am0ralist
      08.10.2021 11:08
      +2

      Не, правильный ход — это заполонить интернет дипфейками с собой разного уровня качества (от совсем явных, до весьма качественных), а потом уже…


      1. Hayate
        08.10.2021 12:58

        Почему-то вспомнилось https://youtu.be/EDS0I7M1Dks?t=53


      1. Wesha
        16.10.2021 05:11

        Как говориться, "где лучше всего спрятать камешек? - на галечном пляже."