Она называется «Recycle-GAN». Это система для трансформации содержимого одного видео или фотографии по подобию другого, обучающаяся исключительно на входных неразмеченных данных (обучение без учителя). «Задача изменения контента c сохранением стиля оригинала имеет множество применений, например, наложение движений и мимики одного человека на другого, обучение роботов методом “делай как я”, — говорят исследователи, — или преобразование черно-белых видео в цветные».
До сих пор даже самые продвинутые методы трансформации были нацелены на человеческие лица, и по мнению исследователей, «их практически невозможно было применить в др. областях», кроме того «они очень плохо работают с частично скрытыми лицам». Другие методы используют покадровую трансформацию, который требует трудоемкой ручной маркировки и выравнивания данных.
Recycle-GAN же использует генеративно-состязательные сети(GAN) и «пространственно-временные маркеры, чтобы “связать” две картинки или видео. (GAN — это модели, состоящие из генератора, который пытается «обмануть» дискриминатора, производя все более реалистичные результаты из входных данных.) При обучении на видео с людьми, они создают ролики с такими такие трудноуловимыми моментами как ямочки на щеках, формирующиеся при улыбке и движении губ.
«Без какого-либо вмешательства и изначальных знаний, связанных с конкретикой видео, наш подход способен обучиться просто используя общедоступные предметные ролики из Интернета», — пишет команда разработчиков
Recycle-GAN способен на гораздо больше чем только передача мимики лица. Исследователи использовали его для изменения погодных условий в видео, конвертировав полный штиль в ветреный день. Они имитировали цветущие и умирающие цветы, и синтезировали убедительный восход солнца из видео в Интернете.
Результаты тестирования достаточно хороши: системе удалось обмануть 15 испытуемых в 28,3% случаев, но команда полагает, что продукция будущих версий системы может быть более правдоподобной, если они примут во внимание скорость воспроизведения, например, насколько быстрее или медленнее говорят люди в видео
«Правдоподобный перенос стиля должен быть способным учитывать даже разницу во времени, получающуюся при воспроизведения речи / контента», — написала команда. «Мы считаем, что лучшая пространственно-временная архитектура нейронной сети может решить эту проблему в ближайшем будущем».
Неудивительно, что deepfakes остаются горячо обсуждаемой актуальной проблемой. Публично доступные сервисы делают их создание относительно легкими, и нет никакой законодательной основы для защиты жертв подобных видео.
Reddit, Pornhub, Twitter и другие заняли позицию против них, а исследователи (совсем недавно присоединившееся МО США) продолжают искать способы обнаружения deepfakes. Но, как недавно высказался Эрик Голдман, профессор юридического факультета Университета Санта-Клары и директор Института высоких технологий, лучше всего «приготовиться жить в мире, где нас повсеместно будут окружать и настоящие и поддельные фотографии и видео."
Комментарии (21)
mSnus
18.08.2018 23:32+1Скоро видео перестанут считать доказательством...
Но до этого ловкие люди успеют неплохо заработать на менее ловких… странно, что до сих пор не было никаких громких дел, с этим связанных.
KevinMitnick
18.08.2018 23:53ну как же не было, во всех громких делах, участники заявляют что это фейк ))
Megakazbek
19.08.2018 12:49Нет, просто для видео введут такие же механизмы защиты, как и для других легко изменяемых цифровых данных — например, цифровую подпись.
alexxprg
19.08.2018 15:07И много ли сегодня реально существует ситуаций, где данные, отправленные пользователем куда-то, подписываются его ЭП? Даже при общении с государственными инстанциями это нужно далеко не всегда.
Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет. А это огромный набор девайсов, которые реально используются по делу: регистраторы, экшн-камеры, фотоаппараты. И даже когда эти изменения дойдут, всё равно в строю останется армия старых устройств без этого функционала. Также, уверен, в бюджетном сегменте никто это с особым рвением внедрять не будет ещё лет пять-десять: или слишком дорого обойдётся модернизация существующих производственных линий, или дешёвые чипы просто не потянут.Sychuan
19.08.2018 15:13Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет.
Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.
Плюс также как развиваются методы генерации фейков, создаются и методы их отличать. Причем с теми же нейросетями. Так что не думаю, что все так печально.alexxprg
19.08.2018 15:27Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.
Вот как станут неотличимы, только тогда производители устройств (и то, не все) постепенно начнут задумываться о внедрении средств защиты. Как будто хоть раз кто-то что-то сделал заранее.Megakazbek
19.08.2018 21:12Как будто кирпич, отпущенный с высоты хоть раз улетал вверх. Странно жаловаться на то, что законы поведения общества работают именно так, а не иначе.
vikarti
20.08.2018 05:48Вот вспоминается Российская НФ-серия «Хроники 33 миров».
Там проблема решена просто:
— видео — НЕ доказательство.
— исключение — видео, снятое устройством, сертифицированным как «полицейский видеорегистратор».
Оные регистраторы существуют в куче разных версий, сама полиция обычно использует достаточно большие (и дешевые) версии. Частники иногда используют дорогие маленькие устройства. Сам регистратор — защищен от вскрытия и вмешательства.
macik
19.08.2018 22:36Видео будет доказательством до тех пор пока кто-то не использует для своей защиты данную технологию.
Допустим тоже самое видео которое использует обвинение, защита подправить убийцу… Вот тогда и начнется…
Komesk Автор
19.08.2018 01:39Уточнение: это перевод, оригинал статьи вот здесь
Немного накосячил при оформлении.
Lazytech
19.08.2018 07:30ИИ, который накладывает лицо одного человека на тело другого, использовали для замены Харрисона Форда на Николаса Кейджа в бесчисленных видеоклипах <...>
Я не сразу понял, о чем идет речь, пока не заглянул в оригинал:
Videos generated with artificial intelligence (AI) that learn to superimpose the face of one person onto the body of another have been used to swap Harrison Ford for Nicolas Cage in countless movie clips <...>
Movie clips — это отрывки из кинофильмов. Надо было сохранить ссылку на YouTube:
Nick Cage DeepFakes Movie Compilation — YouTube
alexstup
19.08.2018 13:24Скоро можно будет подделать заявления любого политика. Значит вызвать войну или волнения можно будет по прихоти любого человека имеющего на то средства.
evtomax
19.08.2018 14:25+2Есть одна проблема. Заявления публичных политиков сейчас как-то слабо коррелируют с тем, что происходит.
Komesk Автор
19.08.2018 16:01И не только политика — можно копромат на любого сделать. Пока там разберутся, пока опровергнут — волна уже пойдет
kinall
19.08.2018 15:54Не будет ничего революционного. С точки зрения пользователя это не более чем «фотошоп для видео». К монтажу фотографий все давно привыкли, и практика по ним сложилась – в том числе экспертизы подлинности. Теперь это перейдёт на видео, только и всего.
Komesk Автор
19.08.2018 16:00Видео все же убедительнее смотрится, люди в него больше верят.
Со временем, конечно, привыкнут, что и видео доверять нельзя. Однако, самое интересно открывется в плане кино: этож сколько новых фильмов можно наделать с уже ушедшими актерами, или вместо подражания историческому персонажу — сгенерить его самого.Incidence
20.08.2018 02:00этож сколько новых фильмов можно наделать с уже ушедшими актерами
Их уже делают. Питеру Кушингу продолжить свою актёрскую карьеру в последних «Звёздных Войнах» не помешала даже собственная смерть :)
dabystru
20.08.2018 08:32Реквестую римейк «Гостьи из будущего» с оригинальной
Наташей ГусевойАлисой Селезнёвой!
Jeyko
Ндас… Ситуация из «Бегущего человека» становится не такой уж и фантастической. Иди потом докажи что ты не верблюд!