Когда-либо слышали о «deepfakes»? ИИ, который накладывает лицо одного человека на тело другого, использовали для замены Харрисона Форда на Николаса Кейджа в бесчисленных видеоклипах, а также и для более гнусных целей: знаменитости без их ведома появились в порно и пропаганде. Теперь, к лучшему или худшему, исследователи из Университета Carnegie Mellon разработали новую, более мощную и универсальную систему.


Она называется «Recycle-GAN». Это система для трансформации содержимого одного видео или фотографии по подобию другого, обучающаяся исключительно на входных неразмеченных данных (обучение без учителя). «Задача изменения контента c сохранением стиля оригинала имеет множество применений, например, наложение движений и мимики одного человека на другого, обучение роботов методом “делай как я”, — говорят исследователи, — или преобразование черно-белых видео в цветные».

До сих пор даже самые продвинутые методы трансформации были нацелены на человеческие лица, и по мнению исследователей, «их практически невозможно было применить в др. областях», кроме того «они очень плохо работают с частично скрытыми лицам». Другие методы используют покадровую трансформацию, который требует трудоемкой ручной маркировки и выравнивания данных.

image

Recycle-GAN же использует генеративно-состязательные сети(GAN) и «пространственно-временные маркеры, чтобы “связать” две картинки или видео. (GAN — это модели, состоящие из генератора, который пытается «обмануть» дискриминатора, производя все более реалистичные результаты из входных данных.) При обучении на видео с людьми, они создают ролики с такими такие трудноуловимыми моментами как ямочки на щеках, формирующиеся при улыбке и движении губ.

«Без какого-либо вмешательства и изначальных знаний, связанных с конкретикой видео, наш подход способен обучиться просто используя общедоступные предметные ролики из Интернета», — пишет команда разработчиков

Recycle-GAN способен на гораздо больше чем только передача мимики лица. Исследователи использовали его для изменения погодных условий в видео, конвертировав полный штиль в ветреный день. Они имитировали цветущие и умирающие цветы, и синтезировали убедительный восход солнца из видео в Интернете.


Результаты тестирования достаточно хороши: системе удалось обмануть 15 испытуемых в 28,3% случаев, но команда полагает, что продукция будущих версий системы может быть более правдоподобной, если они примут во внимание скорость воспроизведения, например, насколько быстрее или медленнее говорят люди в видео

«Правдоподобный перенос стиля должен быть способным учитывать даже разницу во времени, получающуюся при воспроизведения речи / контента», — написала команда. «Мы считаем, что лучшая пространственно-временная архитектура нейронной сети может решить эту проблему в ближайшем будущем».


Неудивительно, что deepfakes остаются горячо обсуждаемой актуальной проблемой. Публично доступные сервисы делают их создание относительно легкими, и нет никакой законодательной основы для защиты жертв подобных видео.

Reddit, Pornhub, Twitter и другие заняли позицию против них, а исследователи (совсем недавно присоединившееся МО США) продолжают искать способы обнаружения deepfakes. Но, как недавно высказался Эрик Голдман, профессор юридического факультета Университета Санта-Клары и директор Института высоких технологий, лучше всего «приготовиться жить в мире, где нас повсеместно будут окружать и настоящие и поддельные фотографии и видео."

Комментарии (21)


  1. Jeyko
    18.08.2018 22:41

    Ндас… Ситуация из «Бегущего человека» становится не такой уж и фантастической. Иди потом докажи что ты не верблюд!


  1. mSnus
    18.08.2018 23:32
    +1

    Скоро видео перестанут считать доказательством...


    Но до этого ловкие люди успеют неплохо заработать на менее ловких… странно, что до сих пор не было никаких громких дел, с этим связанных.


    1. KevinMitnick
      18.08.2018 23:53

      ну как же не было, во всех громких делах, участники заявляют что это фейк ))


    1. Megakazbek
      19.08.2018 12:49

      Нет, просто для видео введут такие же механизмы защиты, как и для других легко изменяемых цифровых данных — например, цифровую подпись.


      1. alexxprg
        19.08.2018 15:07

        И много ли сегодня реально существует ситуаций, где данные, отправленные пользователем куда-то, подписываются его ЭП? Даже при общении с государственными инстанциями это нужно далеко не всегда.

        Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет. А это огромный набор девайсов, которые реально используются по делу: регистраторы, экшн-камеры, фотоаппараты. И даже когда эти изменения дойдут, всё равно в строю останется армия старых устройств без этого функционала. Также, уверен, в бюджетном сегменте никто это с особым рвением внедрять не будет ещё лет пять-десять: или слишком дорого обойдётся модернизация существующих производственных линий, или дешёвые чипы просто не потянут.


        1. Sychuan
          19.08.2018 15:13

          Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет.

          Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.
          Плюс также как развиваются методы генерации фейков, создаются и методы их отличать. Причем с теми же нейросетями. Так что не думаю, что все так печально.


          1. alexxprg
            19.08.2018 15:27

            Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.

            Вот как станут неотличимы, только тогда производители устройств (и то, не все) постепенно начнут задумываться о внедрении средств защиты. Как будто хоть раз кто-то что-то сделал заранее.


            1. Megakazbek
              19.08.2018 21:12

              Как будто кирпич, отпущенный с высоты хоть раз улетал вверх. Странно жаловаться на то, что законы поведения общества работают именно так, а не иначе.


        1. vikarti
          20.08.2018 05:48

          Вот вспоминается Российская НФ-серия «Хроники 33 миров».
          Там проблема решена просто:
          — видео — НЕ доказательство.
          — исключение — видео, снятое устройством, сертифицированным как «полицейский видеорегистратор».
          Оные регистраторы существуют в куче разных версий, сама полиция обычно использует достаточно большие (и дешевые) версии. Частники иногда используют дорогие маленькие устройства. Сам регистратор — защищен от вскрытия и вмешательства.


    1. macik
      19.08.2018 22:36

      Видео будет доказательством до тех пор пока кто-то не использует для своей защиты данную технологию.
      Допустим тоже самое видео которое использует обвинение, защита подправить убийцу… Вот тогда и начнется…


  1. Komesk Автор
    19.08.2018 01:39

    Уточнение: это перевод, оригинал статьи вот здесь
    Немного накосячил при оформлении.


  1. Lazytech
    19.08.2018 07:30

    ИИ, который накладывает лицо одного человека на тело другого, использовали для замены Харрисона Форда на Николаса Кейджа в бесчисленных видеоклипах <...>

    Я не сразу понял, о чем идет речь, пока не заглянул в оригинал:
    Videos generated with artificial intelligence (AI) that learn to superimpose the face of one person onto the body of another have been used to swap Harrison Ford for Nicolas Cage in countless movie clips <...>

    Movie clips — это отрывки из кинофильмов. Надо было сохранить ссылку на YouTube:
    Nick Cage DeepFakes Movie Compilation — YouTube


    1. Komesk Автор
      19.08.2018 15:54

      Верно, со ссылкой было бы понятнее.


  1. alexstup
    19.08.2018 13:24

    Скоро можно будет подделать заявления любого политика. Значит вызвать войну или волнения можно будет по прихоти любого человека имеющего на то средства.


    1. evtomax
      19.08.2018 14:25
      +2

      Есть одна проблема. Заявления публичных политиков сейчас как-то слабо коррелируют с тем, что происходит.


    1. Komesk Автор
      19.08.2018 16:01

      И не только политика — можно копромат на любого сделать. Пока там разберутся, пока опровергнут — волна уже пойдет


    1. 4tlen
      19.08.2018 20:09

      Уж как пару лет можно. Что-то не было слышно ни одного громкого инцидента, хотя наверняка были случаи провокации.


  1. kinall
    19.08.2018 15:54

    Не будет ничего революционного. С точки зрения пользователя это не более чем «фотошоп для видео». К монтажу фотографий все давно привыкли, и практика по ним сложилась – в том числе экспертизы подлинности. Теперь это перейдёт на видео, только и всего.


    1. Komesk Автор
      19.08.2018 16:00

      Видео все же убедительнее смотрится, люди в него больше верят.
      Со временем, конечно, привыкнут, что и видео доверять нельзя. Однако, самое интересно открывется в плане кино: этож сколько новых фильмов можно наделать с уже ушедшими актерами, или вместо подражания историческому персонажу — сгенерить его самого.


      1. Incidence
        20.08.2018 02:00

        этож сколько новых фильмов можно наделать с уже ушедшими актерами
        Их уже делают. Питеру Кушингу продолжить свою актёрскую карьеру в последних «Звёздных Войнах» не помешала даже собственная смерть :)
        image


        1. dabystru
          20.08.2018 08:32

          Реквестую римейк «Гостьи из будущего» с оригинальной Наташей Гусевой Алисой Селезнёвой!