Развитие технологий не стоит на месте ни секунды. Искусственный интеллект стал доступен всем совсем недавно, но его использование прочно пронизывает все сферы жизни: от мемов и написания дипломных работ до финансового анализа и даже управления транспортом. Однако за всеми преимуществами и технологическим прогрессом могут скрываться подводные не то, что камни, но даже рифы. В этом материале разбираемся, какие риски несет применение ИИ. 

Недавно в медиапространстве появилась новость, что миллиардер, предприниматель и создатель LinkedIn (заблокирован в России) Рид Хоффман взял интервью у самого себя. Но не обычным способом, а с помощью ИИ.

Хоффман создал своего цифрового клона и пообщался с ним. Этим видео он поделился в своем YouTube-канале. И ролик мгновенно завирусился в сети и СМИ, чем вызвал шквал обсуждений.

История очень похожа на шумиху вокруг дипфейков. Это современная технология, которая представляет собой правдивое фото и его доработку на основе ИИ. Алгоритм нейросети анализирует большое количество снимков и учится, как двигается, выглядит и даже говорит конкретный человек. Термин deepfake буквально объединяет два понятия: «глубокое обучение» (имеется в виду искусственного интеллекта) [deep learning] и «подделка» [fake].

Было бы смешно, если бы не было так грустно

Дипфейки используются давно и уже вышли за рамки мемов и видео из соцсетей. Многие видели или хотя бы слышали о российском комедийном веб-сериале с Джейсоном Стэйтемом и Киану Ривзом «ПМЖейсон». Не с настоящими звездами, конечно, а с их цифровыми двойниками. Кстати, это первый в мире дипфейк-сериал.

Еще один пример — первый эпизод шестого сезона известного научно-фантастического сериала «Черное зеркало» под названием «Ужасная Джоан» (Joan Is Awful). Серия посвящена дипфейкам и реальным проблемам, которые могут быть вызваны бездумным использованием ИИ.

Так, главная героиня Джоан узнает, что по мотивам ее жизни на стриминговой платформе появляется сериал. Все события, происходящие с ней, в тот же день переносятся на экран с помощью систем слежения и CGI (изображения, сгенерированные компьютером). Как можно догадаться, главная героиня портит отношения со всеми родными и близкими и начинает жить в настоящем аду. И все потому, что она не глядя поставила галочку в пользовательском соглашении того самого онлайн-кинотеатра и буквально дала разрешение на экранизацию своей личной жизни.

Было бы смешно, если бы не было так грустно, поскольку в виртуальном пространстве каждый день сотни тысяч людей теряют личные данные, а с развитием ИИ — еще и лица.
 
К слову, совсем недавно, на инаугурации президента России, его пресс-секретарь Дмитрий Песков высказался о дипфеках. Журналист дал ему послушать сгенерированную ИИ запись, где представитель Кремля говорит о Павле Дурове и его интервью Такеру Карлсону. После услышанного Песков призвал россиян внимательнее относится к тому, что мы видим в интернете и критически относиться к любому контенту. И он прав.
 
Еще немного про риски и как их избежать

В начале года в СМИ стала появляться информация о том, что ИИ освоили и мошенники. Киберпреступники хакают аккаунты жертв в мессенджерах, изучают манеру общения, а если человек отправляет коллегами и близкими голосовыми сообщения и «кружочки», то быть беде. Злоумышленники генерируют с помощью нейросетей изображение или аудио, затем вступают в диалог, например, с друзьями жертвы.

К реализации подобных рисков ведет недостаточное правовое регулирование и слабое понимание работы ИИ, считает QA Lead ПСБ проекта «Чат-бот» Михаил Костецкий.

«Сам по себе искусственный интеллект не несет в себе негатива, все зависит от контекста его использования. В настоящее время большинство применяемых в этой области технологий основано на экономической выгоде, и дипфейки не являются исключением. На мой взгляд, это одно из эволюционных направлений ИИ, которое будет в дальнейшем только развиваться. В частности, область медиа. Это одна из самых креативных сфер, поэтому не берусь говорить о перспективах, но, думаю, в скором времени мы увидим такие цифровые копии не только в кино, но и в обычном блоге в качестве ведущего», – добавил эксперт.

Михаил также дал советы, как обезопасить себя от «дипфейковых» и других рисков использования ИИ:

«Цифровая гигиена и контроль за использованием своих персональных данных, в том числе и за сбором биометрии и цифровых клонов, — это то, на что в первую очередь стоит обращать внимание в современном мире. Соблюдение этих правил поможет минимизировать риски негативных сценариев применения ваших цифровых копий».

По словам тимлида и руководителя проекта «Чат-банк» ПСБ Ивана Бутырского, риски в работе с ИИ в первую очередь зависят от области применения технологии.

«Для финтеха это, конечно, вызов и, к сожалению, отрасль пока не готова контролировать технологии дипфейков в полной мере. Внедрение этих возможностей в финансовом секторе с высоким уровнем риска невозможно без параллельного развития информационной безопасности», — отметил он.

Эксперт добавил, что использование ИИ для медиа и маркетинговых проектов — дело обычное. Но любая технология может попасть в руки мошенников и служить инструментом реализации неправомерных действий. Однако здесь, как считает Иван Бутырский, в скором времени появятся разработки для распознавания фейков.
 
Руководитель проекта «Чат-банк» ПСБ также отметил и положительные аспекты в использовании ИИ повсеместно.

«Для интернет-банкинга это прекрасная возможность реализовать персонализированных ассистентов, которые были бы всегда доступны в вашем телефоне. Считаю, что развитие этой технологии позволит сделать шаг вперед от текстовых чатов к полноценным виртуальным ассистентом с «живыми» аватарами. Возможно, технологии будут применяться в связке с технологией дополненной реальности, например, в виртуальных офисах», — заключил эксперт.

Стоит отметить, что сами по себе технологии – это не плохо и не опасно, но может сделать современную жизнь лучше, например, помочь врачам быстрее ставить диагноз или финансовым аналитикам улучшить работу в банковском секторе. В общем, много всего.

В заключение добавим, что стоит всегда внимательно читать соглашения об обработке персональных данных, не подписывать что попало и чаще менять пароли от аккаунтов в мессенджерах и соцсетях. И, конечно, не сообщать неизвестным данные банковских карт или паспорта. Иначе можете оказаться на месте героини Джоан из «Черного зеркала».

Комментарии (0)