Статья создана при участии Саражинского Н.С. победителя Акселератора 4.0 РТУ МИРЭА.
Статья создана при участии Саражинского Н.С. победителя Акселератора 4.0 РТУ МИРЭА.

Новая цифровая реальность последних лет, в большинстве технологических решений которой ядром выступает искусственный интеллект (ИИ), существенно исказила восприятие человеком разницы между реальностью и вымыслом. Один из главных «стирателей» такой грани — дипфейк‑технологии, которые можно охарактеризовать как методику автоматизированного, т. е. машинного синтезирования аудиовизуального цифрового контента (изображений, аудио, видео и даже текста) с целью создания видоизмененного и при этом максимально реалистичного контента.

Как бы то ни было, технические подделки, которые, как казалось, делают глубокие изменения внешности в тех же самых фильмах, со временем еще больше развивались и совершенствовались. А ведь несколько лет назад артикуляционная экспрессия и другие элементы синтезированного видео задавались программно‑ по большей части это была «ручная» задача, причем в режиме реального времени.

Правомерность

Основная проблема с Deepfakes заключается в том, что ни в одной стране мира еще не создана законодательная практика, которая могла бы повлиять как на создателя deepfakes, так и на процедуры его удаления. Закон об авторском праве может выступать эффективным средством регулирования глубоких подделок, но для этого его необходимо доработать. Вопрос о защите прав умерших (например, киноактеров) в отношении использования их голосов и изображений также остается открытым.

Если изучить авторские права в РФ на тему дипфейков как результат интеллектуальной деятельности, как бы созданной программой, то по российскому законодательству автором может быть только гражданин, творческим трудом которого создан этот результат (ст. 1228 ГК РФ). А правообладателем может быть лишь человек или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (ст. 1229 ГК РФ). Так что за любой машиной должно стоять физическое или юридическое лицо, в противном случае не будет создан объект авторского права.

С точки зрения закона, в частности корпоративного права, существует УК РФ Статья 327. Подделка, изготовление или оборот поддельных документов, государственных наград, штампов, печатей или бланков.

Которая регулирует правоотношения в сфере документа оборота. Однако, несмотря на это, законодательство не регулирует конкретное понятие Deepfakes. А это очень важно! Ведь с помощью такой опасной технологии для общества фактически можно выдать себя за другого человека. Условно любой человек освоивший данную технологию с коммерческой‑коррупционной целью уже несет в себе потенциальную угрозу конституционному строю. Например, можно взять два документа о праве владения имуществом, как государственным, так и частным и подменить подписи, печати, реквизиты и корреспондентов. Итогом этого может стать такие юридические правонарушения как: подлог, кража чужого имущества, коррупция, порча имущества, кража личных данных, нанесения вреда в том числе психическому здоровью (если речь идет о краже личных данных и собственности), фальсификация.

Необходимо отметить, что количество одних только видео‑дипфейков, циркулирующих в Интернете, стабильно увеличивается вдвое каждые полгода. Их общее число вряд ли поддается подсчету. По данным некоторых иностранных экспертов, всего за два года существования в относительном доступе инструментов по производству дипфейков только «очевидного» вредоносного видеоконтента выявлено свыше 85 тыс. единиц. При этом уместно предположить, что синтетический контент всех видов (видео, аудио, изображения и текст) может исчисляться сотнями миллионов единиц, одномоментно находящихся в цифровом пространстве.

Возможно, на первый взгляд покажется неочевидным, но в ряде случаев дипфейки могут принести существенную пользу обществу. Взять, к примеру, сферу образования, которая в последние годы существенно наращивает интерактивно‑цифровую составляющую. Если уж что‑то и нужно оцифровывать в учебном процессе, так это то, что невозможно воспроизвести или показать учащимся традиционным «аналоговым» способом. Многим школьникам уроки истории показались бы намного интереснее, если бы они иллюстрировались качественными дипфейками великих людей прошлого: правителей, военачальников, деятелей науки и культуры. Они могли бы рассказать часть школьной программы как свою личную историю. Этот же пример уместно спроецировать и на уроки литературы. Представьте, насколько увлекательным станет знакомство с классикой русской литературы, если поэты «золотого века» смогут «лично» декламировать свои только что сочиненные стихи.

Простой пример кода, который можно доработать в дипфейк:

from PIL import Image, ImageDraw

 

im1 = Image.open('ВАШ_ФОН.jpg')

im2 = Image.open('ФОТОГРАФИЯ_ДЛЯ_ВСТАВКИ.jpg')

 

mask_im = Image.new("L", im2.size, 0)

draw = ImageDraw.Draw(mask_im)

draw.ellipse((100, 10, 270, 180), fill=255)

 

im1.paste(im2, (0, 0), mask_im)

im1.save('ИТОГ_кода.jpg', quality=95)

 

im1.close()

im2.close()

mask_im.close()
Результат кода.
Результат кода.

Что со всем этим делать нам:

  1. Знать о технологии и распространять знание о ней. Далеко не все в курсе, что в несколько кликов можно сделать фейковые фото и видео с чужим лицом. Сформированное у общества знание снижает порог доверия «своим собственным глазам». Значит и фейки разлетаться будут не так быстро, и опровергать их станет проще.

  2. Бизнесу — использовать востребованную нишу по созданию программ, обнаруживающих и удаляющих фейки. Тема будет актуальная ещё достаточно долго и развиваться параллельно с совершенствованием машинного обучения и искусственного интеллекта.

  3. Использовать существующие инструменты по удалению фейков. По ссылке хорошая инструкция, что делать, если кто‑то выложил ваши интимные фотографии в сеть. Для дипфейков инструкция также применима. Кроме описанных там положений можно руководствоваться ст.158 УК «О мошенничестве» и ст.152 ГК «О защите чести и достоинства».

  4. Жить дальше, если такое произошло. Как говорят, если не можешь изменить ситуацию, измени своё отношение к ней. От дипфейков, к сожалению, не застрахован никто. Особенно публичные люди, которые активно ведут соцсети.

Вывод

Ученые по всему миру сейчас увлечены технологиями машинного обучения, а проблема дипфейков выглядит достаточно сложной и интересной, чтобы заинтересовать многих из них. Поэтому выявлению дипфейков с помощью анализа изображений посвящено изрядное количество исследовательских проектов.

Например, в статье, опубликованной в июне 2018 года, рассказывается, как анализ частоты морганий может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк‑видео, доступных на момент публикации статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку.

Авторы двух других работ, опубликованных в ноябре 2018 года, порекомендовали искать артефакты искажения лица и несоответствия положений головы. В другой статье, за 2019-й, описана довольно сложная техника анализа выражений лица и мимики, характерных для конкретного человека.

В конечном счете упомянутые исследования подсказывают создателям дипфейков, как улучшать дискриминативные сети, что, в свою очередь, приводит к более тщательному обучению генеративных сетей — и как следствие, повышает качество подделок.

Комментарии (0)