В последнее время проблема подделок голоса возникла в связи с тем, что профессиональные актеры озвучивания обнаружили, что их вокальные дорожки были тайно воссозданы с помощью генеративного искусственного интеллекта (ИИ). Получившийся синтетический голос заставляли говорить вещи, за которые актерам не платили и против которых у них могли быть моральные, профессиональные или личные возражения. В одном особенно тревожном примере моддер видеоигры (т. е. человек, который самостоятельно создает новые сцены для видеоигры на основе существующего контента) использовал генеративный ИИ на публичном сайте, чтобы создать и распространить порнографический контент deepfake с использованием вокальных треков актера без ее согласия.

А что в практике?

Так достаточно резонансным является дело Алены Андроновой против банка Tinkoff. В 2019 году между актрисой и банком был заключен договор на запись голоса для внутренних задач банка и облучения голосового помощника. Через несколько лет актриса обнаружила использование своего голоса в рекламе. Андронова пришла к выводу, что на её голосе обучили инструмент для синтеза речи, доступный в «Тинькофф Software» — он так и называется, «Голос Алёны». Актриса утверждает, договором не было установлено использование голоса для обучения нейросетей. В качестве метода воздействия на компанию создана петиция на Change.org, в которой Алёна требует законодательно признать голос человека нематериальным благом, чтобы его нельзя было отчуждать согласно договору без специального указания, что он будет использоваться для синтеза. На данный момент и зарубежем Кроме того, существует несколько профессиональных ассоциаций, таких как SAG‑AFTRA и Национальная ассоциация актеров озвучивания, которые могут помогают заинтересованным лицам в защите нарушенного «права на голос».

Однако данный способ представляется не вполне точной интерпретацией возникшего правоотношения, поскольку договорные отношения между сторонами уже могут предполагать конструкции, которые позволят избежать неправомерного использования голоса, в том числе через обработку искусственным интеллектом. Однако открытым остается вопрос использования голоса уже опубликованного и генерируемого без согласия автора.

Нарушения права на индивидуальный голос возможны путем изменения звукозаписи (искажение звука, изменение голоса с помощью компьютерной программы, добавление иных новых звуков и аудиоэффектов, сокращение звукозаписи в ущерб смыслу (содержанию) и пр.). Одним из предполагаемых способов защиты от таких нарушений может стать закрепление за управомоченным гражданином возможности требовать недопущения нарушение целостности записи, а также требовать прекращения использования записи голоса способами или в форме, которые затрагивают честь, умаляют достоинство или деловую репутацию обладателя голоса.

Отечественная правоприменительная практика еще не сформировала четкой позиции относительно голоса как объекта правовой охраны, однако зарубежная практика также складывается неоднозначно.

Так в деле Мидлер против Ford Motor Co. суд установил, что: «Голос — это такая же отличительная и индивидуальная черта, как и лицо. Человеческий голос — один из наиболее ощутимых способов проявления личности». Суд постановил, что не каждый случай коммерческого использования чужого голоса является нарушением закона; в частности, человек, чей голос узнаваем и широко известен, получает защиту по закону через право на публичность как защиту от вторжения в частную жизнь путем присвоения. Это защищает общественных деятелей и знаменитостей от незаконного присвоения их личности и потенциального использования в коммерческих целях.

Правовое регулирование посмертного использования нематериальных благ становится актуальным по этой же причине. Современные технологии позволяют легко воссоздавать голоса и изображения. Например, с помощью технологии «дипфейк» генерируются «цифровые клоны» умерших знаменитостей, которые «гастролируют» с концертными турами, «участвуют» в телепередачах, «рекламируют» товары, активно «ведут» страницы в социальных сетях. Благодаря этой технологии Брюс Ли «снялся» в рекламе виски «Джонни Уокер», а Джеймс Дин «получил» роль в художественном фильме.В 2020 г. с согласия наследников изображение и голос актера Леонида Куравлева были использованы в образе известного персонажа Жоржа Милославского в рекламе Сбербанка.

Поскольку право на реализации голоса неразрывно связано с образом человека и является составной частью его восприятия, к вопросу регулирования следует подходить комплексно. Законодательство многих стран использует концепцию защиты «цифрового образа» человека в целом, представляя цифровой след человека целостным объектом правовой охраны.

Так как голос как составная часть человека может быть фальсифицирован путем использования технологии deepfake — словосочетание «deep‑learning» и «fake» означает искусственное создание, манипулирование и изменение данных для создания ложного представления о существующем человеке, объекте, месте или субъекте.

Что делать?

В связи с очевидной проблемой использования данной технологии многие страны вводят соответствующее регулирования с целью минимизации рисков использования «цифрового образа» человека.

Во время сессий на XI Петербургском международном юридическом форуме в мае 2023 года озвучивались мнения о необходимости создания специального законодательства, учитывающего особенности использования технологий ИИ в творчестве. Кроме того, были предприняты усилия по совершенствованию технических возможностей выявления дипфейков. Так, АНО «Диалог регионы» была представлена система мониторинга дипфейков в режиме реального времени, получившая название «Зефир».

Совсем недавно в Государственную Думу был внесен законопроект о борьбе с манипуляциями в Интернете. Как заметил заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин, «это первый в России законопроект о регулировании продукта искусственного интеллекта. Осенью мы внесем еще ряд законопроектов, потому что с развитием программы искусственного интеллекта появляются новые сущности, которые также нуждаются в регулировании. В частности, дипфейк и ряд других». Прежде всего законопроект должен законодательно закрепить понятие «дипфейк».

В настоящий момент идет работа по разработке и внесении изменений в действующее законодательство, которое предусматривает наказание за использование цифровой̆ технологии подмены личности (дипфейк) в противоправных целях. Предложения по этому поводу готовит Минцифры совместно с МВД и Роскомнадзором. 1 ноября их планируется представить правительственной̆ комиссии по профилактике правонарушений под председательством главы МВД Владимира Колокольцева.

Таким образом для гарантий прав граждан осуществляющих профессиональную деятельность с помощью узнаваемого голоса следует предусмотреть особенности в соответствующих договорах и соглашениях с работодателем/заказчиком. отечественное законодательство предоставляет инструменты для защиты своих прав, в том числе защиты результатов труда, связанного с записью и воспроизведением голоса человека. нерелевантным представляется закрепление исключительного права или включения дефиниции голоса как нематериального блага, поскольку это может вызвать больше пробелов, чем даст рабочий инструмент для недопущения нарушения прав.

Комментарии (0)