Революция ИИ случилась очень внезапно даже по меркам стремительно развивающихся технологий последних десятилетий. Как говорил фантаст и идеолог киберпанка Уильям Гибсон, будущее уже наступило — оно просто неравномерно распределено. И в одном из направлений — имитации внешности и голосов людей — будущее как будто шагнуло вперед сразу на столетие. Что происходит с индустрией сейчас, что ее ждет и как с эпидемией дипфейков планируют бороться в будущем?
О том, что тема дипфейков — на гребне волны общественного интереса, говорит хотя бы то, что этот текст пришлось переписывать и дополнять несколько раз: когда он уже был готов к публикации, появлялась новая информация либо из мира дипфейков, либо из мира борьбы с ними. Но сопротивление кажется обреченным на провал: фейки уже как цунами — закрывают горизонт и того и гляди обрушатся на наши головы.
Компании вроде OpenAI и Microsoft на словах признают опасности, которые приносят технологии, но продолжают создавать все более и более совершенные продукты. Как будто недостаточно того, что у OpenAI есть Sora, которая создает настолько реалистичные ролики, что создатели боятся пускать к ней пользователей.
Microsoft же в конце апреля представила модель VASA-1, которую в обзорах называют «ночным кошмаром создания дипфейков» — убедительная анимация создается на основе всего одной фотографии. Или даже картины. Если Мону Лизу можно заставить читать рэп, что уж говорить об обычных людях… А цифра «1» в названии ясно даёт понять, что останавливаться компания на этом не планирует.
https://youtu.be/bsuqk5T-Ak4?si=LIY7phPtD51hg43pБороться с дипфейками пытаются с помощью как технологий, так и законодательных инициатив. Но пока что успехов ни на том, ни на другом фронте не наблюдается. Enfant terrible передовых технологий генеративных состязательных сетей ставит перед научным сообществом и обществом в целом серьезнейшие вызовы.
Не верьте правде
Разрушительность дипфейков, кажется, перевешивает приносимую ими пользу во всех областях. В июле 2023 года на конференции G20 «Преступность и безопасность в эпоху НФТ, ИИ и метавселенной» использование подделок злоумышленниками было названо одной из тех всё сильнее разрастающихся проблем, масштаб которых можно считать геополитическими.
И действительно, переосмыслить нам предстоит, как минимум, технологическую этику, информационную безопасность, проверку достоверности информации из любых источников и еще множество направлений, о которых мы сейчас даже не можем подумать. Светлых же сторон у дипфейков как будто бы нет.
Даже очень тщательный анализ интернета и консультации с другими нейросетями не помогли найти каких-либо значимых применений дипфейков в благих целях. Да, теперь мы можем воскресить безвременно ушедшего актера, создать голливудские спецэффекты на домашнем компьютере, попросить выступить «на бис» Джонна Леннона. Ну, а искать нового актера на роль «Крепкого Орешка», вероятно, не придется теперь ещё лет сто — Брюс Уиллис оцифровал себя еще шесть лет назад. До того, как это стало мейнстримом.
Расплата же за это — потеря возможности верить чему-либо — перечеркивает любые возможные плюсы. С языковыми моделями и даже с генераторами text2image уравнение, по крайней мере, не настолько однозначное.
У технологии есть и обратная сторона: зрители отказываются верить в реальность настоящих видео. Так случилось с Кейт Миддлтон, принцессой Уэльской, рассказавшей недавно СМИ об онкологическом заболевании. Многие отказывались верить сообщению даже несмотря на последовавшие официальные заявления BBC и Королевского двора.
Главная беда дипфейков — она же главное достоинство современных нейросетевых технологий — в их доступности. Качественные решения можно найти в open source и буквально за час «заставить» совершенно любого человека сказать совершенно что угодно абсолютно любым голосом.
Нетрудно угадать, какие способы применения нейросетей стали первыми…
Основные пути использования сгенерированных видео — "видео для взрослых", фейки и реклама «со знаменитостями». Том Хэнкс рекламирует средство для красивой улыбки, Джо Роган — препарат для потенции, а Киану Ривз — утюги. Пострадавших знает вся планета, но на кого подавать в суд — не всегда непонятно.
По данным Kaspersky, создание одной минуты дипфейк-видео у «профессионалов» в даркнете стоит порядка $300. И это не просто «говорящая голова», а полноценный и правдоподобный видеоролик с любым сюжетом. Как может быть использовано это видео? Шантаж, обман и вымогательство, социальный инжиниринг — далеко не полный список. Недавний пример: сотрудник компании в Гонконге перевел скамерам 25 миллионов долларов после того, как его об этом попросил дипфейк, притворявшийся CEO компании.
Для «пранка» был организован целый видеозвонок с участием всего руководства компании. Как оказалось после, единственным настоящим человеком на всей встрече был тот самый сотрудник. Поэтому в следующий раз на зум-звонке с коллегами всмотритесь внимательнее в их лица. Вдруг у кого-то FPS рендеринг бровей начнет лагать или цвет глаз не совпадает?..
Строгий закон — необязательное исполнение
Великобритания первой объявила о введении уголовной ответственности за создание и даже распространение порнографических дипфейков. Наказанием станет реальное заключение и «неограниченный штраф». Также недавно под блокировку в Великобритании попал крупнейший порносайт с дипфейками. Общественность и знаменитости это ожидаемо одобряют.
Вот только есть один нюанс: распространение было незаконным и ранее, добавился только пункт про генерацию видео. Несмотря на это, ни один человек за распространение дипфейков в Великобритании официально осужден еще не был. А сайт наверняка только нарастит аудиторию в даркнете.
«Какие бы решительные меры ни принимали правительства, создание новых изображений всегда будет доступно одним нажатием кнопки — стремление создавать откровенные изображения заложены в основу создания изображений ИИ», — справедливо замечает Guardian. Вот только заложено это стремление как будто бы ещё глубже, в саму человеческую природу.
Клин клином. Как доказать, что вы — не жираф?
От разработчиков нейросетей также ждут помощи в ограничении распространения собственных ИИ. Инициативы включают нанесение «вотермарков» и требование разработки способов гарантированно распознать дипфейк.
Результаты неутешительные: обязать наносить вотермарки опенсорс-разработчиков невозможно. А отличить сгенерированное видео от реальности фокус-группам удается всего в четверти случаев (хотя уверены в своих способностях в три раза больше народу). И, в отличие от ИИ, обучение с подкреплением здесь не помогает: тренинги по распознаванию дипфейков не оказывают никакого эффекта.
Борьба с дипфейками ведется и более остроумными способами. Например, с помощью ИИ воссоздается все строение голосового тракта предполагаемого говорящего. Это нужно, чтобы понять, «человеческая» ли у обладателя голоса анатомия и может ли голос вообще принадлежать человеку. Скажем, один из генераторов ИИ-дипфейков создавал неотличимые от настоящих голоса. Но реконструкция показала, что горло у «рассказчика» должно быть длиной шесть метров. То есть либо голос нечеловеческий, либо с вами беседует жираф.
В прессе про технологию написали недавно, поэтому какое-то время она, возможно, действительно сможет отличать дипфейки. Но нет сомнений, что вскоре технологии приспособятся и к этой защите.
В целом, попытки идентифицировать сгенерированные ИИ голоса и видео на данный момент можно назвать провалившимися. Все протестированные решения оказались ненадежными. Даже лучшие идентификаторы дипфейков угадывают подделку примерно в четверти случаев. А ведь технология их генерацииещё даже не приблизилась к пику своего развития.
Авторское право
Авторское право вступает в новую эру, где необходимо решать проблемы, связанные с авторством искусственно сгенерированных изображений и видео. Один из ключевых вопросов — определение, кто является автором произведения: человек, который создал исходный материал, или разработчик алгоритма, который создал конечный продукт. Но есть и еще одна пострадавшая сторона — сами «герои» дипфейков.
Дополнительная сложность заключается в защите прав на лица и образы, использованные при создании дипфейков, которые могут включать известных персон без их явного согласия. Эти вызовы требуют адаптации законодательства, чтобы обеспечить защиту интеллектуальной собственности в цифровую эпоху.
Например, тот же случай с «рекламой Киану Ривза» поднимает дополнительные вопросы об авторских правах. Авторы использовали в ролике дипфейк, созданный специализирующейся на дипфейках компанией. Компания подала иск в Арбитражный суд, и тот вынес решение в пользу создателей ролика… Но не ставшего прототипом актера.
NFT (наконец-то) действительно может пригодиться?
NFT может казаться еще одним неудачным ребенком в дружном семействе нейросетей. Как отметили авторы одной из статей, NFT «кажется инструментом, пытающимся найти себе применение». До недавнего времени Non Fungible Tokens были известны в основном благодаря сомнительному искусству и «скучающим обезьянам» за миллионы долларов. А после рынок NFT полностью просел под своим весом, потеряв 95% стоимости активов, и термин стал практически ругательным.
Меж тем в прошлом году начали массово появляться публикации людей, увидевших в блокчейне спасителя от дипфейков. Действительно, способность технологии обеспечивать децентрализованное подтверждение подлинности и четкую цепочку хранения делает её потенциально эффективным инструментом для отслеживания и проверки не только финансовых активов, но и контента. Не уверен, что с тобой говорит твою любимый блогер? Проверь его личность по NFT-паспорту.
Новостей было очень много — но в последнее время они почти перестали появляться. Почему? Дело в том, что для использования блокчейна — и NFT в частности — как эффективного инструмента необходимо наличие крепкого партнерства между огромным количеством представителей общественных и технических сфер на международном уровне.
Если защитить от «подделок» знаменитостей первой величины с помощью технологии можно, то выдать NFT-паспорта каждому человеку на планете для защиты от фейков — задача нетривиальная. И даже в этом случае дипфейков едва ли станет меньше.
Комментарии (9)
kenomimi
04.07.2024 08:32+2Все эти телодвижения про опасность ИИ нужны для одного - натроллить население лживой информацией, и потом законодательно залицензировать деятельность в области ИИ, чтобы не пущать стартапы в эту область, оставив ее десятку топовых корпораций. История идентична фреоновому сговору, например, где был сфальсифицирован целый пласт исследований, чтобы запретить дешевые хладагенты и убрать развивающихся конкурентов с рынка.
Особенно боятся попадания ИИ в частные руки медиаконвееры: поп-музыка, кинцо, сериалы, игровой проходняк - всех их вынесет в один удар хороший ИИ. А самим перестроится - надо много времени и денег, ибо бюрократия внутри крупняка сейчас колоссальных размеров.
positroid
04.07.2024 08:32фреоновому сговору
А можно чуть больше деталей?
kenomimi
04.07.2024 08:32+4Фреоны в какой-то исторический момент стали очень дешевы в производстве. Это породило волну стартапов холодильного оборудования, что в свою очередь подрывало сверхприбыльность и монопольное положение DuPont на рынке. А тут как раз информация по озоновым дырам подъехала - рядом профинансированных исследований дыры связали с фреонами, ну и понеслась волна запретов. У DuPont были в производстве более дорогие хладагенты плюс все патенты на сотни газов-хладагентов, а у конкурентов их не было - монополия была условно сохранена. Прикол в том, что фреоны резко тяжелее воздуха, и никак на озон в высоте не могут повлиять - но бабло подвинет и законы физики...
Это даже не заговор, а вполне себе реалии мировой промышленности - лоббировать закон, к которому ты иммунен, а конкуренты - нет. Таким же образом родился ЕвроХ на авто - ряд крупнейших корпораций был уже готов к вооду нормативов, ему ничего не стоило их соблюсти - зато после покупки закона все стартапы сдохли разом. Планку каждый раз поднимали, в итоге дошли до того, что часть концернов начала грубо подделывать сертификацию, чтобы не тратить на ее внедрение бабло - скандал с ваг и компанией все помнят. А Мигалков, который купил налог на носители во славу себя любимого? А FCC, в требованиях которой неявный, но строгий запрет на производство любой открытой радиоаппаратуры - все должно быть секретно, зашифровано и неизменяемо - или фиг, а не сертификация. На те же копеечные баофенги FCC и лоббисты смотрят свиборгом сейчас - раньше рации с такими же характеристиками на два порядка дороже стоили, порой при том же качестве... О модемах и прочем сложном радио вообще молчу.
galaxy
04.07.2024 08:32Прикол в том, что фреоны резко тяжелее воздуха, и никак на озон в высоте не могут повлиять - но бабло подвинет и законы физики
Кислород тяжелее воздуха, CO2 резко тяжелее воздуха, озон резко тяжелее воздуха — их всех в высоте быть не может... Срыватели покровов хреновы
qiper
04.07.2024 08:32Для производства кино и музыки будет использоваться всё больше и больше генерёнки со скатыванием ценности для потребителя к нулю
famileev
04.07.2024 08:321) НФТ задумывались, стали и всегда будут средством для скама лохов. Киты наварились на дурачках, после чего их просто выкинули.
И слово "NFT" теперь не практически ругательное - оно ДЕЙСТВИТЕЛЬНО ругательное.
2) Что значит "невозможно заставить"? Каким таким макаром их "невозможно заставить"? Или речь идёт всё же о "нет политической воли заставить"? Была бы воля, их бы заставили, а если бы всё же не смогли, всегда можно было бы все эти конторки прихлопнуть, как мух, и ввести пожизненный срок для каждого дегенерата, желающего попытаться развить дипфейк технологии. Потому что когда есть воля что-то сделать, то это делается - так или иначе. И посадить можно любого при достаточной воле.
Действительно же проблема кроется в капитализме. Капиталист волнуется лишь о своих прибылях, и дипфейк для него - это не более чем инструмент для получения этих самых прибылей. Пока мы не избавимся от капитализма, мотивирующего людей извлекать прибыль любыми, даже самыми гнусными способами, не будет спасения ни от дипфейка, ни от чего-либо другого.
Retifff
С Моной Лизой фигня какая-то, а не дипфейк. Это как бывают такие стенды с дыркой для головы, чтобы фотографироваться. Только голова там читает рэп.