Стартап Deeptrace провел своего рода перепись дипфейков в июне-июле 2019 года, чтобы отрекламировать свои инструменты обнаружения, которые он надеется продать новостным организациям и онлайн-платформам. Всего стартап обнаружил 14 678 видеороликов, открыто представленных в качестве дипфейков: почти в два раза больше, чем семь месяцев назад. Около 96% из них оказались порнографическими.
История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.
Перепись вряд ли можно назвать исчерпывающей, но выводы напоминают о том, что о спекуляциях на выборах говорить пока рано. Технология в основном используется совсем по-другому, в том числе в качестве инструмента для онлайновой травли. При этом Deeptrace отмечает, что программы для создания дипфейков становятся всё более продвинутыми и более доступными.
Отчёт стартапа описывает процветающую экосистему веб-сайтов и форумов, где люди делятся, обсуждают и совместно изготавливают порнографические дипфейки. Некоторые из них являются коммерческими предприятиями. Они продают рекламу в видеоклипах, куда лица девушек вставляется без их согласия.
Почему девушек? Потому что все «поддельные» люди в порноклипах Deeptrace женского пола. Видеоролики с самыми популярными фигурами — западными актрисами и южнокорейскими поп-знаменитостями — собрали миллионы просмотров. Некоммерческие организации уже сообщили о том, что женщины-журналисты и политические активистки подвергаются атакам с помощью этого нового метода. Генри Айдер, исследователь Deeptrace, который работал над отчётом, говорит, что есть форумы, где пользователи обсуждают или даже заказывают создание дипфейков с женщинами, которых знают. Например, с бывшими подругами, потому что хотят увидеть их в конкретном порно (или просто в любом порно).
Даниэла Цитрон (Danielle Citron), профессор права в Бостонском университете, описывает порнографические дипфейки, сделанные без согласия человека, как «вторжение в сексуальную частную жизнь». Она уже выступила на июньских слушаниях комитета по разведке Палаты представителей США об инструментах манипулирования средствами искусственного интеллекта, пишет Wired.
По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.
Цитрон помогла принять новое законодательство об уголовном наказании за месть через порно, которое сейчас действует по крайней мере в 46 штатах и округе Колумбия. В их число входит и Калифорния: на прошлой неделе губернатор Гэвин Ньюсом (Gavin Newsom) подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.
Сейчас Цитрон обсуждает с законодателями Палаты представителей и Сената новое федеральных законодательство, чтобы наказывать распространение вредоносных фейков, в том числе дипфейков. Идею поддерживают представители обеих партий. Некоторые заявляют даже, что дипфейки представляют угрозу всей американской демократии (вероятно, тут речь всё-таки не о порнографических дипфейках, а о разрушении общего уровня доверия в обществе, над чем давно работают различные генераторы фейковых новостей).
Уровень доверия в обществе — это действительно важный цивилизационный фактор. Фрэнсис Фукуяма в книге «Доверие: социальные добродетели и путь к процветанию» описывает отдельные экономические, политические и социальные модели реальных стран с разным уровнем доверия (Россия, США, Англия, Франция, Германия, Япония, КНР, КНДР и пр.). Автор рассматривает различные модели управления, введённые в этих странах, линию правительства, роль внутрисемейных отношений и воспитания, открытых религиозных организаций и закрытых сект и пр. Все аспекты сплетаются в единую систему, основанную на цифрах и логике, при помощи этой системы автор наглядно показывает важность доверия в пост-индустриальную эпоху.
Комментарии (33)
kinall
12.10.2019 11:06В статье не хватает ссылок…
AllexIn
12.10.2019 12:15Исследование показало, что 96% дипфейков в интернете
А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.
Порно и мошенничество. Но мошенников мало, а порно смотрит подавляющее большинствоskrimafonolog
12.10.2019 12:23А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.
Мне почему то это тоже было ясно и заочно.
wikipro
12.10.2019 19:15+1Мне кажется основная область где можно будет применить через 5-10 лет — это съёмка 1-2 серий сериала с использованием "оригинальной звезды", а в последующих сериях можно попробовать заменить дешёвыми аналогами из Театра Юного Зрителя из Полтавы, которых к 2-3 сезону можно поменять на выпускников эстрадно-циркового училища из Душанбе и Киргизской филармонии.
2 -е направление — снять новые фильмы с умершими актерами.
Но для этого нейро сеть должна будет не просто натягивать фото одного человека на видео другого, но и копировать характерные движения пластики, мимики.
Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
Я думаю торговля своим цифровым слепком в будущем будет одним из направлений охраны авторского права, за одно и простых людей от подделки защитят.Gaikotsu
13.10.2019 13:08Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
Ну, чем-то подобным и являются те же самые вокалоиды.wikipro
13.10.2019 13:31Ну они же не на нейросетях… поэтому возможности в принципе большими не будут, а при чтении аудио книг (как и при игре актёров) важно не только имитировать голос Сергея Чонишвили, но и интонацию, манеру произнесения, авторский стиль — не знаю даже как это охарактеризовать…
skrimafonolog
12.10.2019 13:00+1подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.
А раньше можно было и это было законно?
adictive_max
12.10.2019 13:33+1что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами
А что, их для чего-то ещё можно было использовать?AllexIn
13.10.2019 16:34Да. Но озвучивать я не буду. Полагаю через полгода-год в новостях и так появится.
vassabi
12.10.2019 14:18По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.
… и не только женщин. Но все же это странная причина для неолуддизма.
Интересно, как активистка — насколько далеко она зайдет? будет ли например пропагандировать за полный запрет женских фотографий? (а с мужских — пусть делают дипфейки, все равно это интересно только про политиков)Oxoron
12.10.2019 18:45+5На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин.
Какие интересные высказывания от профессора права.BackDoorMan
13.10.2019 07:33Трудности перевода. Men = мужчины, люди.
kinall
13.10.2019 09:03Кстати, не слышно, что на этот счёт говорят активистки? Ну что «человек» и «мужчина» — это одно и то же?
bakeacake
12.10.2019 18:49Ну камон, разве в этой ситуации главным неолуддистом является активистка? В обществе незнамо сколько лет процветает гаденькая логика, связанная с телами и сексом. В случае сливов нюдзов жертву очень любят судить за то, что она посмела поделиться ими с бывшим партнером (или что изначально посмела сфоткаться в голом виде). Как бы куча людей в отношениях делится нюдзами, куча людей смотрит порно и радуется, но когда появляются сливы, все быстренько переобуваются. А если кто-то будет выдавать дипфейк за слитое фото / видео, жертву будут еще сильнее травить! Туда же можно засунуть любые сексуальные практики, в том числе сильно осуждаемые обществом (или то что считается унизительным). И проблемы у жертвы будут не от активисток, которые по вашему мнению начнут запрещать конкретно женские фотки (что кажется мне взятым с потолка), а от людей, которые считают нормальным травить других за их сексуальные предпочтения / распространять чужие голые фотографии и видео без разрешения.
В мире, где всем пофиг, кто что делает в постели + сексуальные практики не являются постыдными, это было бы просто распространением лжи. Но мы живем не в таком мире(vassabi
13.10.2019 01:33если бы просто «что делает в постели», а то ведь, если кто-то придет с таким видео в суд и скажет: «я согласия не давал\а, значит это изнасилование». И привет.
alliumnsk
13.10.2019 10:42Да, является. Активистки/активисты вполне себе считают нормальным травить людей за сексуальные предпочтения, которые не входят в список разрешенных. Так что вы дихотомию ложную тут проводите.
Gawker к примеру защищал феминизм но попалось секс-видео с Халком Хоганом и они его опубликовали.
AllexIn
13.10.2019 16:35Полагаю те, кто пересылает фотки и смотрит вместе порно не участвуют в осуждении сливов.
creker
12.10.2019 16:27+2По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.
Даже если допустить, что дипфейки каким-то образом мучают женщин, можно еще примеры технологий, для этого не предназначенных, которыми мучили женщин?
taliano
12.10.2019 17:15+4профессор права и активистка
Можно даже не уточнять конкретно какое движение она представляет. Все прекрасно понятно из ее слов.
Asharah
12.10.2019 18:49+1Как и упомянуто в статье, подобные технологии очень удобно использовать для дискредитации частного лица (бывшей девушки) или же публичной персоны. Вот только методы вышеупомянутые активисты выбирают какие-то регрессивные.
Быть может, вместо попыток заткнуть плотину пальцем, пытаясь запретить делать нечто эдакое (ведь запретили взятки брать — и никто не берет же, и убийств в цивилизованном мире нет — запрещено), стоит работать над сдвигом общественного сознания? Чтобы, скажем, видео вольного содержания, особенно фальшивое, не воспринималось как нечто дискредитирующее для его действующих лиц.
lightman
12.10.2019 19:21+3Девушки ещё не понимают, что технология дипфейков несёт им огромный плюс, перевешивающий все минусы. Теперь можно не так бояться слива своих настоящих фото-видео материалов, шантажа или осуждения, ведь всегда можно сослаться за фейковость материала. Да и постоянное увеличение общего числа порноматериалов в интернете способствует тому что твой «позор» в нём затеряется и никому не станет известен.
Думаю скоро мы придём к тому, что при регистрации очередной девушки в соц. сетях боты будут автоматически скачивать фото/видео и генерить на их основании тонны порно контента, заливаемого тут же на специализированные сайты, поэтому проблема сливов просто исчезнет.AllexIn
13.10.2019 16:38+1Переходный период породит много жертв.
Пока технология не массовая, пока о ней не знает каждый житель планеты — можно ломать людям жизнь.
Даже если 8 из 10 знакомых поверят в то, что видео/фото не настоящие — оставшиеся 2 все равно создадут достаточно проблем. Особенно если это старые дедушки/бабушки/родители.
mSnus
15.10.2019 13:28К сожалению, у некоторых высокоморальных людей видео с ними может вызвать очень тяжёлые психологические травмы, чем всякие вымогатели наверняка воспользуются. Да и просто какому-нибудь учителю потом доказывать, что он на самом деле не педофил, довольно сложно — "ложечки нашлось, но осадочек остался".
Так что не скоро мы прийдем с состоянию общества, где дипфейки не опасны, очень не скоро.
elCreator
13.10.2019 10:42нужно нормировать дипфейк-порно с учетом отношения числа вообще всех порнороликов к не-порно видео. Эти 96% явно уменьшатся
androidovshchik
Непристойный корни дают о себе знать в технологиях имхо