В ноябре 2017 года аккаунт Reddit под названием deepfakes опубликовал первые в интернете порнографические видеоролики, в которых программное обеспечение заменяло лица реальных актрис лицами голливудских знаменитостей. Почти два года спустя «дипфейки» стали общим явлением и термином, который описывает любое поддельное видео, сделанное с помощью программ ИИ. Этот метод используют и для смешных видеороликов на YouTube, он также вызывает озабоченность законодателей, опасающихся политической дезинформации. Тем не менее, новое исследование говорит о том, что дипфейки в основном остаются верными своим непристойным корням.

Стартап Deeptrace провел своего рода перепись дипфейков в июне-июле 2019 года, чтобы отрекламировать свои инструменты обнаружения, которые он надеется продать новостным организациям и онлайн-платформам. Всего стартап обнаружил 14 678 видеороликов, открыто представленных в качестве дипфейков: почти в два раза больше, чем семь месяцев назад. Около 96% из них оказались порнографическими.

История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.

Перепись вряд ли можно назвать исчерпывающей, но выводы напоминают о том, что о спекуляциях на выборах говорить пока рано. Технология в основном используется совсем по-другому, в том числе в качестве инструмента для онлайновой травли. При этом Deeptrace отмечает, что программы для создания дипфейков становятся всё более продвинутыми и более доступными.

Отчёт стартапа описывает процветающую экосистему веб-сайтов и форумов, где люди делятся, обсуждают и совместно изготавливают порнографические дипфейки. Некоторые из них являются коммерческими предприятиями. Они продают рекламу в видеоклипах, куда лица девушек вставляется без их согласия.

Почему девушек? Потому что все «поддельные» люди в порноклипах Deeptrace женского пола. Видеоролики с самыми популярными фигурами — западными актрисами и южнокорейскими поп-знаменитостями — собрали миллионы просмотров. Некоммерческие организации уже сообщили о том, что женщины-журналисты и политические активистки подвергаются атакам с помощью этого нового метода. Генри Айдер, исследователь Deeptrace, который работал над отчётом, говорит, что есть форумы, где пользователи обсуждают или даже заказывают создание дипфейков с женщинами, которых знают. Например, с бывшими подругами, потому что хотят увидеть их в конкретном порно (или просто в любом порно).

Даниэла Цитрон (Danielle Citron), профессор права в Бостонском университете, описывает порнографические дипфейки, сделанные без согласия человека, как «вторжение в сексуальную частную жизнь». Она уже выступила на июньских слушаниях комитета по разведке Палаты представителей США об инструментах манипулирования средствами искусственного интеллекта, пишет Wired.

По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.

Цитрон помогла принять новое законодательство об уголовном наказании за месть через порно, которое сейчас действует по крайней мере в 46 штатах и округе Колумбия. В их число входит и Калифорния: на прошлой неделе губернатор Гэвин Ньюсом (Gavin Newsom) подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.

Сейчас Цитрон обсуждает с законодателями Палаты представителей и Сената новое федеральных законодательство, чтобы наказывать распространение вредоносных фейков, в том числе дипфейков. Идею поддерживают представители обеих партий. Некоторые заявляют даже, что дипфейки представляют угрозу всей американской демократии (вероятно, тут речь всё-таки не о порнографических дипфейках, а о разрушении общего уровня доверия в обществе, над чем давно работают различные генераторы фейковых новостей).

Уровень доверия в обществе — это действительно важный цивилизационный фактор. Фрэнсис Фукуяма в книге «Доверие: социальные добродетели и путь к процветанию» описывает отдельные экономические, политические и социальные модели реальных стран с разным уровнем доверия (Россия, США, Англия, Франция, Германия, Япония, КНР, КНДР и пр.). Автор рассматривает различные модели управления, введённые в этих странах, линию правительства, роль внутрисемейных отношений и воспитания, открытых религиозных организаций и закрытых сект и пр. Все аспекты сплетаются в единую систему, основанную на цифрах и логике, при помощи этой системы автор наглядно показывает важность доверия в пост-индустриальную эпоху.

Комментарии (33)


  1. androidovshchik
    12.10.2019 11:05

    История дипфейков повторяют историю многих других медиатехнологий, которые получили распространение благодаря порно: от VHS до потокового вещания.

    Непристойный корни дают о себе знать в технологиях имхо


  1. kinall
    12.10.2019 11:06

    В статье не хватает ссылок…


    1. olartamonov
      12.10.2019 13:44
      +8

      Слайдов.


    1. sudden_death
      12.10.2019 18:55
      -1

      У меня тоже встал такой вопрос


      1. kotov666
        13.10.2019 01:52

        Развели тут пикабу, ща @moderatora позову


  1. AllexIn
    12.10.2019 12:15

    Исследование показало, что 96% дипфейков в интернете

    А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.
    Порно и мошенничество. Но мошенников мало, а порно смотрит подавляющее большинство


    1. skrimafonolog
      12.10.2019 12:23

      А для этого надо было исследование проводить? И так очевидно, что порно является самой основной областью где это можно применять.

      Мне почему то это тоже было ясно и заочно.


    1. dominigato
      12.10.2019 12:48
      +1

      Ну а как еще посмотреть много порнухи и получить за это грант?


    1. wikipro
      12.10.2019 19:15
      +1

      Мне кажется основная область где можно будет применить через 5-10 лет — это съёмка 1-2 серий сериала с использованием "оригинальной звезды", а в последующих сериях можно попробовать заменить дешёвыми аналогами из Театра Юного Зрителя из Полтавы, которых к 2-3 сезону можно поменять на выпускников эстрадно-циркового училища из Душанбе и Киргизской филармонии.
      2 -е направление — снять новые фильмы с умершими актерами.
      Но для этого нейро сеть должна будет не просто натягивать фото одного человека на видео другого, но и копировать характерные движения пластики, мимики.
      Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
      Я думаю торговля своим цифровым слепком в будущем будет одним из направлений охраны авторского права, за одно и простых людей от подделки защитят.


      1. Gaikotsu
        13.10.2019 13:08

        Но более интересный вариант DeepFackeSound т.е. например взять аудиокниги начитанные Сергеем Чонишвили обучить по ним нейросеть (его голосу, тембру, интонации) и в дальнейшем попробовать озвучить его голосом аудиокнигу которую озвучивал не он, а другой чтец.
        Ну, чем-то подобным и являются те же самые вокалоиды.


        1. wikipro
          13.10.2019 13:31

          Ну они же не на нейросетях… поэтому возможности в принципе большими не будут, а при чтении аудио книг (как и при игре актёров) важно не только имитировать голос Сергея Чонишвили, но и интонацию, манеру произнесения, авторский стиль — не знаю даже как это охарактеризовать…


  1. skrimafonolog
    12.10.2019 13:00
    +1

    подписал закон, который позволяет человеку, вставленному в откровенно сексуальный материал без его согласия, подать гражданский иск против того, который создал или опубликовал этот видеоролик.
    А раньше можно было и это было законно?


  1. adictive_max
    12.10.2019 13:33
    +1

    что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами
    А что, их для чего-то ещё можно было использовать?


    1. sanapad
      12.10.2019 18:49
      +1

      4% — эротика с неизвестными мужчинами и новыми недругами


    1. AllexIn
      13.10.2019 16:34

      Да. Но озвучивать я не буду. Полагаю через полгода-год в новостях и так появится.


  1. vassabi
    12.10.2019 14:18

    По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.
    … и не только женщин. Но все же это странная причина для неолуддизма.
    Интересно, как активистка — насколько далеко она зайдет? будет ли например пропагандировать за полный запрет женских фотографий? (а с мужских — пусть делают дипфейки, все равно это интересно только про политиков)


    1. Oxoron
      12.10.2019 18:45
      +5

      На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин.
      Какие интересные высказывания от профессора права.


      1. BackDoorMan
        13.10.2019 07:33

        Трудности перевода. Men = мужчины, люди.


        1. kinall
          13.10.2019 09:03

          Кстати, не слышно, что на этот счёт говорят активистки? Ну что «человек» и «мужчина» — это одно и то же?


    1. bakeacake
      12.10.2019 18:49

      Ну камон, разве в этой ситуации главным неолуддистом является активистка? В обществе незнамо сколько лет процветает гаденькая логика, связанная с телами и сексом. В случае сливов нюдзов жертву очень любят судить за то, что она посмела поделиться ими с бывшим партнером (или что изначально посмела сфоткаться в голом виде). Как бы куча людей в отношениях делится нюдзами, куча людей смотрит порно и радуется, но когда появляются сливы, все быстренько переобуваются. А если кто-то будет выдавать дипфейк за слитое фото / видео, жертву будут еще сильнее травить! Туда же можно засунуть любые сексуальные практики, в том числе сильно осуждаемые обществом (или то что считается унизительным). И проблемы у жертвы будут не от активисток, которые по вашему мнению начнут запрещать конкретно женские фотки (что кажется мне взятым с потолка), а от людей, которые считают нормальным травить других за их сексуальные предпочтения / распространять чужие голые фотографии и видео без разрешения.

      В мире, где всем пофиг, кто что делает в постели + сексуальные практики не являются постыдными, это было бы просто распространением лжи. Но мы живем не в таком мире(


      1. vassabi
        13.10.2019 01:33

        если бы просто «что делает в постели», а то ведь, если кто-то придет с таким видео в суд и скажет: «я согласия не давал\а, значит это изнасилование». И привет.


      1. alliumnsk
        13.10.2019 10:42

        Да, является. Активистки/активисты вполне себе считают нормальным травить людей за сексуальные предпочтения, которые не входят в список разрешенных. Так что вы дихотомию ложную тут проводите.
        Gawker к примеру защищал феминизм но попалось секс-видео с Халком Хоганом и они его опубликовали.


      1. AllexIn
        13.10.2019 16:35

        Полагаю те, кто пересылает фотки и смотрит вместе порно не участвуют в осуждении сливов.


  1. p_fox
    12.10.2019 15:26
    -1

    Как к этим исследователям записаться?


  1. creker
    12.10.2019 16:27
    +2

    По её мнению, преобладание порнографических дипфейков является напоминанием о другом уроке из истории технологий: «На каждом этапе мы видели, что люди используют то, что есть под рукой, чтобы мучить женщин. Дипфейки представляют иллюстрацию этого», — говорит профессор права и активистка.

    Даже если допустить, что дипфейки каким-то образом мучают женщин, можно еще примеры технологий, для этого не предназначенных, которыми мучили женщин?


    1. gatoazul
      12.10.2019 23:19
      +1

      Киндер, кюхе, кирхе


  1. taliano
    12.10.2019 17:15
    +4

    профессор права и активистка

    Можно даже не уточнять конкретно какое движение она представляет. Все прекрасно понятно из ее слов.


  1. Asharah
    12.10.2019 18:49
    +1

    Как и упомянуто в статье, подобные технологии очень удобно использовать для дискредитации частного лица (бывшей девушки) или же публичной персоны. Вот только методы вышеупомянутые активисты выбирают какие-то регрессивные.
    Быть может, вместо попыток заткнуть плотину пальцем, пытаясь запретить делать нечто эдакое (ведь запретили взятки брать — и никто не берет же, и убийств в цивилизованном мире нет — запрещено), стоит работать над сдвигом общественного сознания? Чтобы, скажем, видео вольного содержания, особенно фальшивое, не воспринималось как нечто дискредитирующее для его действующих лиц.


  1. Dynul
    12.10.2019 18:49

    Без картинок не интересно.


  1. lightman
    12.10.2019 19:21
    +3

    Девушки ещё не понимают, что технология дипфейков несёт им огромный плюс, перевешивающий все минусы. Теперь можно не так бояться слива своих настоящих фото-видео материалов, шантажа или осуждения, ведь всегда можно сослаться за фейковость материала. Да и постоянное увеличение общего числа порноматериалов в интернете способствует тому что твой «позор» в нём затеряется и никому не станет известен.

    Думаю скоро мы придём к тому, что при регистрации очередной девушки в соц. сетях боты будут автоматически скачивать фото/видео и генерить на их основании тонны порно контента, заливаемого тут же на специализированные сайты, поэтому проблема сливов просто исчезнет.


    1. AllexIn
      13.10.2019 16:38
      +1

      Переходный период породит много жертв.
      Пока технология не массовая, пока о ней не знает каждый житель планеты — можно ломать людям жизнь.
      Даже если 8 из 10 знакомых поверят в то, что видео/фото не настоящие — оставшиеся 2 все равно создадут достаточно проблем. Особенно если это старые дедушки/бабушки/родители.


    1. mSnus
      15.10.2019 13:28

      К сожалению, у некоторых высокоморальных людей видео с ними может вызвать очень тяжёлые психологические травмы, чем всякие вымогатели наверняка воспользуются. Да и просто какому-нибудь учителю потом доказывать, что он на самом деле не педофил, довольно сложно — "ложечки нашлось, но осадочек остался".


      Так что не скоро мы прийдем с состоянию общества, где дипфейки не опасны, очень не скоро.


  1. elCreator
    13.10.2019 10:42

    нужно нормировать дипфейк-порно с учетом отношения числа вообще всех порнороликов к не-порно видео. Эти 96% явно уменьшатся