Правило 34


Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами. Его жертвами уже стали: Эмма Уотсон, Мейси Уильямс, Скарлетт Йоханссон, Галь Гадот.

Для создавая подобных видео были использованы алгоритмы машинного обучения такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением, а также материалы из открытого доступа.

С первого взгляда кажется правдоподобным, но на видео наблюдаются артефакты лицо не отслеживается правильно, хотя распознать фэйк не искушенному зрителю будет сложно.

image

Большой брат


Как инструменты Adobe, которые могут заставить людей говорить что-либо, и алгоритм Face2Face, который может подменять лица в режиме реального времени, этот новый тип поддельного видео показывает, что человечество находимся на грани, где легко создать правдоподобные видеоролики о том чего мы никогда не делали.

В руках спецслужб уже FindFace который позволяет найти любого человека хоть раз попавшего в объектив видеокамеры. Представьте, что можно реализовать с таким инструментом. Удаление с видео в реальном времени различных компромата или наоборот создать его. Подмена улик в прямом эфире.

Оригинал: AI-Assisted Fake Porn Is Here and We’re All Fucked

Комментарии (55)


  1. Kant8
    12.01.2018 01:21
    +1

    Что-то статья запоздала. Тестовые видео он уже давно выкладывал, а пару дней назад вот еще и пост на реддите с готовыми прогами для обучения и монтажа видео
    www.reddit.com/r/deepfakes/comments/7ox5vn/fakeapp_a_desktop_tool_for_creating_deepfakes

    Порно как всегда двигает прогресс :)


    1. MrBuha
      12.01.2018 05:39

      Позвольте я сокращу. Порно — двигатель прогресса.
      По поводу статьи. Автор, ты немного опоздал. Зачем тормошить прошлое?


      1. izzholtik
        12.01.2018 09:23

        … пошлое


      1. Dreadn0ught Автор
        12.01.2018 11:54

        VHS, Blu-Ray — победили благодаря порноиндустрии.


  1. Dessloch
    12.01.2018 04:32

    Новость хорошая и печальная одновременно. Скоро ГИБДД научится подделывать видео с нарушениями, а нечестные опера вместо наркоты будут «находить» и показывать видео как жертва вымогательства грабит банк или убивает кого-то.


    1. lain8dono
      12.01.2018 07:13

      Всё это можно делать в ручную. И десять лет назад можно было.


      1. Dessloch
        14.01.2018 18:01

        Ну я имел в виду что скоро ДАЖЕ ГИБДД научится подделывать


    1. AbstractGaze
      12.01.2018 07:14
      +1

      Generation „П“ читали? Ваши опасения продвинули значительно дальше, и значительно раньше. Минимум лет 18 назад. (только одноименный фильм смотреть не рекомендую)


      1. bask
        12.01.2018 10:00

        В фильме «Бегущий человек» с Шварценеггером это показали ещё раньше, в 1987-м


        1. vesper-bot
          12.01.2018 11:02

          Там, правда, был всего лишь монтаж, но сам принцип заложен уже давно.


        1. unibasil
          12.01.2018 11:45

          Да, но "Бегущий человек" — фантастика.


          1. nikolayv81
            12.01.2018 12:10

            По современным меркам там нет чего-то особо фантастичного, а если книгу прочитать там ещё ближе к жизни.


          1. bask
            12.01.2018 17:42

            Фантастикой он был 30 лет назад


      1. bano-notit
        12.01.2018 22:50

        А мне фильмец тоже доставляет некое наслаждение. И актёры неплохие и подходящие под этот контекст, и снято вроде с пониманием мира.
        Я вот жду, когда выйдет «Empire V».


  1. FSA
    12.01.2018 09:09

    Вспоминается какой-то фильм в Арнольдом Шварценеггером. Там тоже на ТВ поддельное видео с его убийством делали.


    1. SunSanych
      12.01.2018 11:45

      Бегущий человек же (https://ru.wikipedia.org/wiki/%D0%91%D0%B5%D0%B3%D1%83%D1%89%D0%B8%D0%B9_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA_(%D1%84%D0%B8%D0%BB%D1%8C%D0%BC))


    1. BDI
      12.01.2018 11:45

      «Бегущий человек», 1987


  1. vklimin
    12.01.2018 09:17

    «обучением а так же» — перед «а» всегда запятая!


    1. Oxoron
      12.01.2018 10:43

      А как же «а» в н,ач,але предложения?


    1. Dreadn0ught Автор
      12.01.2018 11:52

      Спасибо поправил.


  1. zedalert
    12.01.2018 10:48

    А что, хорошая тема — сразу скрывать своё лицо от камер.

    gits
    image


  1. OKyJIucT
    12.01.2018 10:50

    А где можно посмотреть готовые примеры работы нейросети, например, со Скарлетт Йоханссон? Друг спрашивает.


    1. Enverest
      12.01.2018 11:45

      Автор на реддите выкладывает.


      1. Alex_ME
        12.01.2018 12:09
        +1

        Ссылки на GitHub с пометкой NSFW — это прекрасно!


  1. divlas
    12.01.2018 11:45

    Ссылки в студию!



  1. BerliozNSK
    12.01.2018 11:45

    ИМХО, новость одновременно и интересная и пугающая: с одной стороны это реально интересно, с другой — при должном знании и умении можно такого наделать…


    1. Dim0v
      12.01.2018 19:28
      +2

      "При должном знании и умении" можно было наделать всякого задолго до появления deepfakes и более качественно, чем это делает deepfakes.
      Тут особенность именно в том, что теперь это можно делать без особых знаний и умений.


    1. DaneSoul
      12.01.2018 22:56

      С другой стороны, теперь и на реальный компромат можно сказать, что это подделка и это был не я.


      1. nidalee
        13.01.2018 22:34
        +1

        И это очень хорошо, КМК.


  1. axe_chita
    12.01.2018 20:51

    А инструмент получается обоюдоострый, может помочь к примеру в киноиндустрии. А может и человека уничтожить.


    1. AllexIn
      12.01.2018 22:06

      Не может уничтожить. Существование инструмента сводит на нет попытыки его использовать.
      Печально то, что это уничтожит видео как возможное доказательство. Сейчас камеры на улицах стали сдерживающим фактором для преступников. А с развитием этой технологии перестанут.


      1. DaneSoul
        12.01.2018 22:58
        +2

        Преступникам это мало поможет, так как даже если видео перестанет быть прямым доказательством, то зная кто это сделал, можно найти другие улики, от которых уже будет не отвертется.


      1. perfect_genius
        13.01.2018 21:17

        Значит будет повод ещё надёжнее защищать устройства хранения этого видео.


        1. AllexIn
          13.01.2018 21:56

          И в чём толк хранить видео?


          1. nidalee
            13.01.2018 22:36

            Если при этом еще и хранить в другом месте данные, которые позволят проверить, был ли изменен файл… Задача проверить «реально ли видео с камеры X?» становится элементарной.


            1. sumanai
              13.01.2018 23:14

              Для кого? Думаю, речь шла об использовании видео как доказательства в суде, к примеру.


              1. nidalee
                13.01.2018 23:59

                Как доказательство в суде — с муниципальных камер скорее всего будут по умолчанию считаться подлинными, возможно с хранением метаданных на другом сервере для проверки. Камеры дома и в организациях, скорее всего, тоже придется допиливать. Но думаю софтом все решится.


                1. sumanai
                  14.01.2018 00:04

                  Думаю, до правки видео онлайн один шаг, и станет невозможно доказать, что видео было снято напрямую, а не было подделано по дороге, вместе с метаданными.
                  Софту тут я бы вообще не стал доверять. Возможно, будут закрытые как со стороны ПО, так и со стороны железа камеры, которые тут же сливают всё видео на серверы разработчика или государственные. К сожалению, это не совместимо с открытыми и свободными технологиями, и их адепты, в том числе и я, останемся без возможности доказать аутентичность своего же видео (


                  1. nidalee
                    14.01.2018 07:14

                    Государство свои камеры будет сертифицировать и там не будет никакой правки онлайн. Примерно как вы и написали. Записан файл -> записан хэш.

                    Открытые и свободные технологии государство и так использует… Редко. А как частники — вы что-нибудь придумаете, я уверен.


    1. sumanai
      13.01.2018 00:13

      А может и человека уничтожить.

      Надеюсь, с распространением и совершенствованием подобных инструментов истории про вымогательство посредством интим-фото, или там самоубийствах после обнародования их перестанут существовать как класс.


  1. tBlackCat
    13.01.2018 20:16

    Не всё так просто.
    При серьёзном подходе ранее рассматривался простой параметр — зернистость фото-киноплёнки. Этот момент не старались подделывать — сложновато, а с киноплёнкой вообще крайне сложно, поскольку искусственность подделки выявлялась ещё проще, чем с отдельным фотоизображением. Соответствующего софта весьма много было разработано.
    Нечто аналогичное есть и сейчас в мире цифрового фото и кино.
    Что-же до создания «с нуля» чисто цифровыми методами, то искусственность просто бьёт в глаза отсутствием базовых элементов, обязательных для используемой съёмочной техники.
    Ссылка на статью обзорную не прошла. Яндекс по запросу «программы для выявления фотомонтажа» покажет много интересного.


  1. vodopad
    13.01.2018 20:20

    Скоро фраза «я @*** твою мать» приобретёт немного другой смысл… С пруфами.


  1. vodopad
    13.01.2018 20:25

    Лет через 5 на каждую девушку в школе (которой больше 18, естественно)\институте всякие извращенцы будут выкладывать в сеть псевдоинтимное видео. И на коллег по работе тоже. И на соседку с пятого этажа… Как же это будет клё… ой, мерзко! Это недопустимо!


    1. OKyJIucT
      13.01.2018 23:37

      И это будет так же "интересно", как и создавать анимированную какашку на последнем Айфоне. Нафиг никому не надо, один раз проигрался и забыл.


      1. vodopad
        13.01.2018 23:38

        Ага, «по одному разу на девушку». Если вы понимаете, о чём я.


        1. OKyJIucT
          13.01.2018 23:42

          Разве что для личного "пользования", вряд ли такой контент подойдёт для компрометации, всерьез мало кто воспримет с такими то технологиями.


    1. TaskForce141
      14.01.2018 16:34

      В этом случае, как и в любом другом, проблема не в инструменте, а в том, кто и как его использует.
      Собственно, из оригинальной же статьи:

      Every technology can be used with bad motivations, and it's impossible to stop that… Ethically, the implications are “huge,” Champandard said. Malicious use of technology often can’t be avoided, but it can be countered.


  1. perfect_genius
    14.01.2018 09:11

    Теперь даже если актёры сольют в Интернет своё хоум видео, то смогут списать на фейк.


  1. sfocusov
    14.01.2018 16:34
    +1

    Как отметили комментаторы в одном паблике, теперь появится много «компромата» на училок старших классов.


  1. aixman
    14.01.2018 16:35
    +1

    Как на счёт заглянуть в потенциальные возможности применения технологии?

    • Видеоидентичность личности по лицу исказится.
    • Ревнивым мужьям и жёнам придется не сладко.
    • Желтая пресса процветает на этой технологии.
    • Появится платный сервис гляньте, я со звездой на вечеринке «пою».
    • Можно будет запустить свой youtube-канал новостей с известными ведущими первых каналов, которые рассказывают про твою тему. Блокчейн или форекс, например, чтобы влиять на рынки, без последствий. ))
    • К Детям применима история из сказки: … сделала голос (лицо) как у мамы Козы… И попросила....
    • Неграмотным бандитам можно будет фабриковать видео их главарей о сдаче властям.
    • Вишенка на торте: Президент страны с боевой мощью может не знать, что он обратился в новостях на всю страну с предложением очистить родину от врага.


    1. Desprit
      14.01.2018 16:48

      Как уже написали выше, сам факт наличия возможности легко создать подобный фейк сводит на нет весь эффект от его создания.


      1. salas
        15.01.2018 01:59

        В равновесии, когда все успеют привыкнуть вообще и осознать конкретный фэйк. А в реальной неравновесной жизни даже на фальшивые текстовые сайты пригодны для некоторых перечисленных пунктов, не то что видео.


    1. perfect_genius
      15.01.2018 07:21

      Как только случится первый такой случай — об этом объявят все каналы и все Интернеты. Будут обсуждать, что мир фейков теперь окружает нас.
      Больше выгоды получит порноиндустрия (можно выбирать актрис только по фигуре, не по лицу) и киноиндустрия — зловещая долина почти побеждена, можно качественнее оживлять Брюса Ли, Лею и Таркина, Высоцкого…


  1. Desprit
    14.01.2018 16:48

    del