Правило 34
Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами. Его жертвами уже стали: Эмма Уотсон, Мейси Уильямс, Скарлетт Йоханссон, Галь Гадот.
Для создавая подобных видео были использованы алгоритмы машинного обучения такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением, а также материалы из открытого доступа.
С первого взгляда кажется правдоподобным, но на видео наблюдаются артефакты лицо не отслеживается правильно, хотя распознать фэйк не искушенному зрителю будет сложно.
Большой брат
Как инструменты Adobe, которые могут заставить людей говорить что-либо, и алгоритм Face2Face, который может подменять лица в режиме реального времени, этот новый тип поддельного видео показывает, что человечество находимся на грани, где легко создать правдоподобные видеоролики о том чего мы никогда не делали.
В руках спецслужб уже FindFace который позволяет найти любого человека хоть раз попавшего в объектив видеокамеры. Представьте, что можно реализовать с таким инструментом. Удаление с видео в реальном времени различных компромата или наоборот создать его. Подмена улик в прямом эфире.
Оригинал: AI-Assisted Fake Porn Is Here and We’re All Fucked
Комментарии (55)
Dessloch
12.01.2018 04:32Новость хорошая и печальная одновременно. Скоро ГИБДД научится подделывать видео с нарушениями, а нечестные опера вместо наркоты будут «находить» и показывать видео как жертва вымогательства грабит банк или убивает кого-то.
AbstractGaze
12.01.2018 07:14+1Generation „П“ читали? Ваши опасения продвинули значительно дальше, и значительно раньше. Минимум лет 18 назад. (только одноименный фильм смотреть не рекомендую)
bask
12.01.2018 10:00В фильме «Бегущий человек» с Шварценеггером это показали ещё раньше, в 1987-м
unibasil
12.01.2018 11:45Да, но "Бегущий человек" — фантастика.
nikolayv81
12.01.2018 12:10По современным меркам там нет чего-то особо фантастичного, а если книгу прочитать там ещё ближе к жизни.
bano-notit
12.01.2018 22:50А мне фильмец тоже доставляет некое наслаждение. И актёры неплохие и подходящие под этот контекст, и снято вроде с пониманием мира.
Я вот жду, когда выйдет «Empire V».
FSA
12.01.2018 09:09Вспоминается какой-то фильм в Арнольдом Шварценеггером. Там тоже на ТВ поддельное видео с его убийством делали.
SunSanych
12.01.2018 11:45Бегущий человек же (https://ru.wikipedia.org/wiki/%D0%91%D0%B5%D0%B3%D1%83%D1%89%D0%B8%D0%B9_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA_(%D1%84%D0%B8%D0%BB%D1%8C%D0%BC))
zedalert
12.01.2018 10:48А что, хорошая тема — сразу скрывать своё лицо от камер.
gitsBerliozNSK
12.01.2018 11:45ИМХО, новость одновременно и интересная и пугающая: с одной стороны это реально интересно, с другой — при должном знании и умении можно такого наделать…
Dim0v
12.01.2018 19:28+2"При должном знании и умении" можно было наделать всякого задолго до появления deepfakes и более качественно, чем это делает deepfakes.
Тут особенность именно в том, что теперь это можно делать без особых знаний и умений.
axe_chita
12.01.2018 20:51А инструмент получается обоюдоострый, может помочь к примеру в киноиндустрии. А может и человека уничтожить.
AllexIn
12.01.2018 22:06Не может уничтожить. Существование инструмента сводит на нет попытыки его использовать.
Печально то, что это уничтожит видео как возможное доказательство. Сейчас камеры на улицах стали сдерживающим фактором для преступников. А с развитием этой технологии перестанут.DaneSoul
12.01.2018 22:58+2Преступникам это мало поможет, так как даже если видео перестанет быть прямым доказательством, то зная кто это сделал, можно найти другие улики, от которых уже будет не отвертется.
perfect_genius
13.01.2018 21:17Значит будет повод ещё надёжнее защищать устройства хранения этого видео.
AllexIn
13.01.2018 21:56И в чём толк хранить видео?
nidalee
13.01.2018 22:36Если при этом еще и хранить в другом месте данные, которые позволят проверить, был ли изменен файл… Задача проверить «реально ли видео с камеры X?» становится элементарной.
sumanai
13.01.2018 23:14Для кого? Думаю, речь шла об использовании видео как доказательства в суде, к примеру.
nidalee
13.01.2018 23:59Как доказательство в суде — с муниципальных камер скорее всего будут по умолчанию считаться подлинными, возможно с хранением метаданных на другом сервере для проверки. Камеры дома и в организациях, скорее всего, тоже придется допиливать. Но думаю софтом все решится.
sumanai
14.01.2018 00:04Думаю, до правки видео онлайн один шаг, и станет невозможно доказать, что видео было снято напрямую, а не было подделано по дороге, вместе с метаданными.
Софту тут я бы вообще не стал доверять. Возможно, будут закрытые как со стороны ПО, так и со стороны железа камеры, которые тут же сливают всё видео на серверы разработчика или государственные. К сожалению, это не совместимо с открытыми и свободными технологиями, и их адепты, в том числе и я, останемся без возможности доказать аутентичность своего же видео (nidalee
14.01.2018 07:14Государство свои камеры будет сертифицировать и там не будет никакой правки онлайн. Примерно как вы и написали. Записан файл -> записан хэш.
Открытые и свободные технологии государство и так использует… Редко. А как частники — вы что-нибудь придумаете, я уверен.
sumanai
13.01.2018 00:13А может и человека уничтожить.
Надеюсь, с распространением и совершенствованием подобных инструментов истории про вымогательство посредством интим-фото, или там самоубийствах после обнародования их перестанут существовать как класс.
tBlackCat
13.01.2018 20:16Не всё так просто.
При серьёзном подходе ранее рассматривался простой параметр — зернистость фото-киноплёнки. Этот момент не старались подделывать — сложновато, а с киноплёнкой вообще крайне сложно, поскольку искусственность подделки выявлялась ещё проще, чем с отдельным фотоизображением. Соответствующего софта весьма много было разработано.
Нечто аналогичное есть и сейчас в мире цифрового фото и кино.
Что-же до создания «с нуля» чисто цифровыми методами, то искусственность просто бьёт в глаза отсутствием базовых элементов, обязательных для используемой съёмочной техники.
Ссылка на статью обзорную не прошла. Яндекс по запросу «программы для выявления фотомонтажа» покажет много интересного.
vodopad
13.01.2018 20:25Лет через 5 на каждую девушку в школе (которой больше 18, естественно)\институте всякие извращенцы будут выкладывать в сеть псевдоинтимное видео. И на коллег по работе тоже. И на соседку с пятого этажа… Как же это будет клё… ой, мерзко! Это недопустимо!
OKyJIucT
13.01.2018 23:37И это будет так же "интересно", как и создавать анимированную какашку на последнем Айфоне. Нафиг никому не надо, один раз проигрался и забыл.
TaskForce141
14.01.2018 16:34В этом случае, как и в любом другом, проблема не в инструменте, а в том, кто и как его использует.
Собственно, из оригинальной же статьи:
Every technology can be used with bad motivations, and it's impossible to stop that… Ethically, the implications are “huge,” Champandard said. Malicious use of technology often can’t be avoided, but it can be countered.
perfect_genius
14.01.2018 09:11Теперь даже если актёры сольют в Интернет своё хоум видео, то смогут списать на фейк.
sfocusov
14.01.2018 16:34+1Как отметили комментаторы в одном паблике, теперь появится много «компромата» на училок старших классов.
aixman
14.01.2018 16:35+1Как на счёт заглянуть в потенциальные возможности применения технологии?
- Видеоидентичность личности по лицу исказится.
- Ревнивым мужьям и жёнам придется не сладко.
- Желтая пресса процветает на этой технологии.
- Появится платный сервис гляньте, я со звездой на вечеринке «пою».
- Можно будет запустить свой youtube-канал новостей с известными ведущими первых каналов, которые рассказывают про твою тему. Блокчейн или форекс, например, чтобы влиять на рынки, без последствий. ))
- К Детям применима история из сказки: … сделала голос (лицо) как у мамы Козы… И попросила....
- Неграмотным бандитам можно будет фабриковать видео их главарей о сдаче властям.
- Вишенка на торте: Президент страны с боевой мощью может не знать, что он обратился в новостях на всю страну с предложением очистить родину от врага.
Desprit
14.01.2018 16:48Как уже написали выше, сам факт наличия возможности легко создать подобный фейк сводит на нет весь эффект от его создания.
salas
15.01.2018 01:59В равновесии, когда все успеют привыкнуть вообще и осознать конкретный фэйк. А в реальной неравновесной жизни даже на фальшивые текстовые сайты пригодны для некоторых перечисленных пунктов, не то что видео.
perfect_genius
15.01.2018 07:21Как только случится первый такой случай — об этом объявят все каналы и все Интернеты. Будут обсуждать, что мир фейков теперь окружает нас.
Больше выгоды получит порноиндустрия (можно выбирать актрис только по фигуре, не по лицу) и киноиндустрия — зловещая долина почти побеждена, можно качественнее оживлять Брюса Ли, Лею и Таркина, Высоцкого…
Kant8
Что-то статья запоздала. Тестовые видео он уже давно выкладывал, а пару дней назад вот еще и пост на реддите с готовыми прогами для обучения и монтажа видео
www.reddit.com/r/deepfakes/comments/7ox5vn/fakeapp_a_desktop_tool_for_creating_deepfakes
Порно как всегда двигает прогресс :)
MrBuha
Позвольте я сокращу. Порно — двигатель прогресса.
По поводу статьи. Автор, ты немного опоздал. Зачем тормошить прошлое?
izzholtik
… пошлое
Dreadn0ught Автор
VHS, Blu-Ray — победили благодаря порноиндустрии.