Искусственный интеллект (ИИ) сильно продвинулся в обнаружении попыток мошенничества с банковскими картами. Большинство из нас получали сообщения с просьбами подтвердить покупки, совершенные киберпреступниками. Для составления «синтетических персональных данных», которые копируют типичные модели поведения владельцев банковских карт, используется машинное обучение. Благодаря ему, финансовые учреждения могут в режиме реального времени зафиксировать поведение, отличающееся от нормы. К сожалению, киберпреступники тоже используют ИИ для создания собственных синтетических персональных данных. Они достаточно реалистичны, чтобы обмануть ИИ банков.
Эта битва искусственных интеллектов, мошенничества и кибербезопасности, ведется не только в банковской сфере. Мошенники подделывают новости, видеоролики, аудиозаписи. Так началась гонка вооружений: ИИ против ИИ.
Стеффен Соррелл из Jupiter Research говорит, что в случае с кредитными картами синтетические персональные данные это легкая добыча. Согласно последнему отчету Jupiter Research о мошенничестве с онлайн-платежами, к 2024 году удастся избежать потери 200 миллиардов долларов на таком виде мошенничества. К этому времени рынок распознавания мошенничества должен достигнуть 10 млрд долларов по сравнению с 8,5 млрд долларов в этом году.
«Мошенничество в Интернете происходит в высокоразвитой экосистеме с разделением труда», — говорит Джош Джонстон, директор AI Science в Boise, компании Kount Inc. по предотвращению мошенничества на основе персональных данных. Джонстон утверждает, что киберпреступники специализируются на разных видах преступлений, начиная от ручных skimming cards", заканчивая созданием синтетических персональных данных с помощью ИИ. «Некоторые мошенники проверяют номера украденных карточек и учетные данные, обращаясь в благотворительные организации или магазины цифровых товаров. Утверждая, что им нужно убедиться, что их заказ не был отменен, они легко проверяют достоверность украденных данных. Джонстон, говорит, что номера кредитных карт с точным именем, адресом и CVV (кодом проверки карты) в даркнете можно купить меньше, чем за доллар.
«Мошенник может купить целый список этих проверенных карточек и монетизировать их с помощью большого количества разных онлайн-схем», — рассказывает Джонстон. «Мошенники активно используют ИИ в своих целях. Они как и обычные разработчики обмениваются советами и ПО на форумах.»
В создании поддельных персональных данных задействованы все виды ИИ и методы оптимизации. Небольшие, простые программы генерируют и регистрируют почтовые ящики, совмещая реальные имена и фамилии с разными наборами чисел. Большие программы создают синтетические персональные данные, используя машинное обучение. По словам Джонстона, комбинируя информацию о нескольких людях можно получить идеальную комбинацию. Если детектор мошенничества проверяет искусственно созданные персональные данные, он часто обнаруживает, что мошенник создал не только поддельную учетную запись электронной почты, но и страницу на Facebook и других интернет-порталах.
Таким образом, навыки обнаружения мошенничества, которыми обладают программисты из сферы кибербезопасности, противопоставляются навыкам непосредственно самого мошенничества, осуществляемого «черными шляпами».
Мошенники используют свои навыки не только в банковской сфере, но и в области распознавания изображений и речи, где их программные инструменты используются для создания поддельных новостей, видеороликов и звука. На самом деле, мошеннические операции с денежными переводами, в которых используется поддельное аудио, развиваются гораздо быстрее, чем операции с онлайн-платежами, считает Ник Мейнард из Juniper Research. Он заявил, что случаи потери денег таким образом вырастут на 130% к 2024 году.
«Машинное обучение становится все более востребованным для предотвращения мошенничества» — говорит Мейнард.
Эта война искусственных интеллектов похожа на популярную игру Whac-A-Mole (досл. ударь крота). Периодически то один, то другой ИИ берет верх. Джонстон сравнивает эту ситуацию с игрой в кошки-мышки. Он измеряет успех и неудачу по одной переменной, которую он называет «трением». «Трение» замедляет одну или другую сторону, пока новая форма «смазки» не помогает тому или иному лагерю выйти вперед.
«Мошенники реагируют на «трения», так же, как обычные пользователи в Интернете. Когда мы получаем преимущество, создавая мошенникам слишком сильные «трения», они переходят к более простой цели, не защищенной детекторами мошенничества».
Хорошая защита от мошенничества увеличивает «трение» для преступников и уменьшает «трение» для программистов в сфере кибербезопасности. Достижения с одной стороны, однако, вызывают перемену стратегии другой стороны», — объясняет Джонстон.
«Когда интернет только появился, воровать особо было нечего, поэтому в основном мошенники проверяли кредитные карты онлайн, а затем покупали на них товары в магазинах.» — продолжает Джонстон. Сегодня онлайн-покупки доступны всем, в том числе и преступникам. С распространением банковских карт с системой безопасности прийти в магазин и потратить всю сумму с украденной карты уже не представляется возможным. Поэтому этот вид мошенничества перешел в сеть. Для его обнаружения искусственному интеллекту в системах распознавания мошеннических операций нужен более детальный анализ.
«На 2020 год наши самые успешные методы защиты от мошенничества основаны на использовании большого количества данных о моделях, которые обычно используют киберпреступники.» — говорит Джонстон. «Злоумышленники могут украсть все ваши секреты, но не могут имитировать ваши вкусы, поведение и историю. В конце концов, мошенникам приходится заниматься мошенничеством, чтобы получить что-то ценное. С помощью правильных данных мы можем определить разницу между мошенником и обычным клиентом.»
ИИ уже использовался для автоматического создания фейковых новостей. Например, прототип системы генерации текста OpenTI GPT-2 использует машинное обучение для перевода текста, ответов на вопросы и написания фейковых новостей. Когда в GPT-2 ввели предложение «Россия объявила войну Соединенным Штатам после того, как Дональд Трамп случайно…», система создала фальшивую новость:
Более подробную информацию о создании фейковых новостей с помощью GPT-2 можно найти на сайте OpenAI.
«Консорциумы с открытым исходным кодом, такие как OpenAI, показывают нам, каким может быть будущее мошенничества: использование автоматизированных инструментов, которые можно масштабировать до массовых нападений», — говорит Дэвид Доерманн, профессор науки и техники в университете в Буффало. «На данный момент у мошенников есть преимущество, но мы должны сохранять этот разрыв небольшим, чтобы быстро их обогнать. Ситуация во многом напоминает вредоносное ПО, где каждый новый вирус, созданный хакером, уничтожается благодаря программистам кибербезопасности. Возможно однажды эта игра станет слишком дорогой для мошенников и они остановятся, но скорее всего ситуация останется похожей на перетягивание каната без явного победителя.»
В то же время, по словам Доерманна, борцы с киберпреступностью должны просвещать людей, чтобы они воспринимали информацию в Интернете с некоторым сомнением. Если что-то звучит слишком хорошо (или слишком плохо), чтобы быть правдой, то, вероятно, так оно и есть. «Можно подумать, что это невыполнимая задача, но это не так. Например, большинство людей теперь знают, что не нужно нажимать на ссылки из незнакомых источников, а почтовые сервисы знают, как определять спам и отфильтровывать его до того, как он попадет в ваш почтовый ящик», — поясняет Доерманн. Известные фейки и даже возможные фейки могут быть помечены соответствующим знаком или надписью, чтобы люди не воспринимали их серьезно. В некоторых случаях, фейковый контент может быть отфильтрован полностью, не нарушая закон о Первой поправке.
Ираклий Беридзе, руководитель Центра ИИ и робототехники при Международном научно-исследовательском институте ООН по вопросам преступности и правосудия (UNICRI), согласен с этим. «Подделка информации в сети лишь новая ветвь проблемы манипулирования новостями. Она существует уже давно, но лишь недавно стала настолько доступной. Необязательно быть техническим гением, чтобы создавать фейковый контент», говорит Беридзе. «Распространение фейковых новостей порождает проблемы, которые могут угрожать национальной безопасности, в том числе выборам и безопасности граждан. Помимо этого они подрывают дипломатию, демократию, общественный дискурс и журналистику».
По словам Беридзе, многие организации пытаются придумать ПО, позволяющее облегчить распознавание фейкового контента. Беридзе и Доерманн утверждают, что такое ПО уже доступно, его лишь нужно доработать. Между тем, оба согласны с тем, что нужно проделать большую работу с доверчивостью среднестатистического пользователя. В свое время людям рассказали, что такое спам и как его распознать. Пришла пора сделать тоже самое с фейковыми новостями. Нужно развивать в людях критическое мышление.
В прошлом году на хакатоне в Гааге, посвященному миру, справедливости и безопасности, UNICRI выдвинули задачу на тему фабрикации контента. Участникам нужно было создать инструмент для определения фейковых видео. Этот инструмент должен был осуществлять поддержку правоохранительных органов, органов безопасности, судебных органов, средств массовой информации и широкой общественности.
«Команда победителей предложила архитектуру нейросети для классификации изображений и веб-приложение, которое упрощает взаимодействие с пользователем», — сказал Беридзе. «Это решение впоследствии было усовершенствовано на технических семинарах в течение 2019 года. В 2020 году мы активно работаем над тем, чтобы эта технология перешла в полномасштабное использование».
Беридзе предупреждает, однако, что не существует быстрого решения проблемы фабрикации новостей. Все более быстрые темпы изменения технологий требуют более целостных решений. Нужно отслеживать технологические достижения и сфабрикованные материалы. Используя их, нужно предвидеть какие проблемы возникнут в будущем и понять какие технологии понадобятся для их решения.
«Это циклический процесс, который требует сотрудничества. Именно поэтому одна из целей Центра ООН это содействие обмену знаниями и построению отношений с заинтересованными сторонами. Специалисты в государственном секторе, промышленности, научных кругах, а также органах безопасности, спецслужбах и органах по борьбе с терроризмом помогают властям идти в ногу со временем», — говорит Беридзе.
«При этом мы предоставляем рекомендации по разработке, внедрению и использованию мер борьбы с фабрикацией контента. Эти решения законны, заслуживают доверия и не нарушают права человека».
Фейковые видео и аудио одна из новых инноваций в вопросе мошенничества, которая демонстрирует использование ИИ в плохих целях. Люди стали понимать, что такое фейковые новости во время выборов в 2016 году, тогда это словосочетание было у всех на слуху. Большинство политических видеороликов были явно поддельными. В них была очень грамотно наложена звуковая дорожка, подстроенная под движения губ. Содержание этих видео было больше похоже на первоапрельскую шутку. Используя инструменты распознавания лиц с помощью машинного обучения, мошенники создали фейковые видео, которым верит даже самый искушенный зритель.
Доерманн является бывшим руководителем программы MediFor (Media Forensics) в управлении перспективными исследовательскими проектами Министерства обороны США (DARPA). Он утверждает, что DARPA уже разработала автоматизированные инструменты для судебной фототехнической экспертизы изображений, полученных государственными учреждениями. Когда-то эти инструменты были ручными, но потом в них добавили ИИ, который позволил автоматизировать процесс.
«Мы разработали инструменты ИИ для обнаружения фейкового контента задолго до того, как это стало проблемой для общества. Мы были обеспокоены террористами и источниками дезинформации в иностранных правительствах. Наша цель была в том, чтобы полностью автоматизировать методы, используемые экспертами для обнаружения фейковых новостей. Мы хотели, чтобы все материалы, собранные правительством и основанные на анализе изображений могли проходить через наш аутентификатор.», говорит Доерманн.
MediFor все еще действует, но вступила в стадию, когда результаты ее фундаментальных исследований включаются в окончательный автоматизированный инструмент. Одновременно с этим новая программа под названием Semantic Forensics (SemaFor) приняла эстафету базовых исследований. SemaFor собирает изображения, которые были помечены как фальшивые, и применяет алгоритмы атрибуции, чтобы определить, откуда возник медиа-контент. Алгоритмы определения характеристик помогают понять были ли фейковые материалы созданы для злоумышленных целей, например, для кампаний дезинформации или для развлечения.
Первые фейковые видео, которые будут неотличимы от подлинных видеороликов, вероятно, появятся во время президентской кампании 2020 года в США. Фейковые аудио уже давно успешно используются киберпреступниками при мошенничестве с переводом денег. Например, The Wall Street Journal сообщила, что фальшивый телефонный звонок, имитирующий голос главного исполнительного директора (CEO) помог преступнику разбогатеть на 243 000 долларов. В конце концов стало ясно, что звонок был делом рук мошенников, но деньги давно прошли через сеть электронных переводов, которые власти так и не смогли отследить.
В идеале нам нужно средство проверки, которое сможет мгновенно определять и отмечать фейковый контент в режиме реального времени. К сожалению, скорее всего, мошенники создадут ИИ, который сможет обманывать нас и красть наши деньги в режиме реального времени.
Автор статьи — Р. Колин Джонсон — стипендиат премии Киото, проработавший технологическим журналистом в течение 20 лет.
Перевод: Диана Шеремьёва
Узнайте подробности, как получить востребованную профессию с нуля или Level Up по навыкам и зарплате, пройдя платные онлайн-курсы SkillFactory:
Эта битва искусственных интеллектов, мошенничества и кибербезопасности, ведется не только в банковской сфере. Мошенники подделывают новости, видеоролики, аудиозаписи. Так началась гонка вооружений: ИИ против ИИ.
Стеффен Соррелл из Jupiter Research говорит, что в случае с кредитными картами синтетические персональные данные это легкая добыча. Согласно последнему отчету Jupiter Research о мошенничестве с онлайн-платежами, к 2024 году удастся избежать потери 200 миллиардов долларов на таком виде мошенничества. К этому времени рынок распознавания мошенничества должен достигнуть 10 млрд долларов по сравнению с 8,5 млрд долларов в этом году.
«Мошенничество в Интернете происходит в высокоразвитой экосистеме с разделением труда», — говорит Джош Джонстон, директор AI Science в Boise, компании Kount Inc. по предотвращению мошенничества на основе персональных данных. Джонстон утверждает, что киберпреступники специализируются на разных видах преступлений, начиная от ручных skimming cards", заканчивая созданием синтетических персональных данных с помощью ИИ. «Некоторые мошенники проверяют номера украденных карточек и учетные данные, обращаясь в благотворительные организации или магазины цифровых товаров. Утверждая, что им нужно убедиться, что их заказ не был отменен, они легко проверяют достоверность украденных данных. Джонстон, говорит, что номера кредитных карт с точным именем, адресом и CVV (кодом проверки карты) в даркнете можно купить меньше, чем за доллар.
«Мошенник может купить целый список этих проверенных карточек и монетизировать их с помощью большого количества разных онлайн-схем», — рассказывает Джонстон. «Мошенники активно используют ИИ в своих целях. Они как и обычные разработчики обмениваются советами и ПО на форумах.»
В создании поддельных персональных данных задействованы все виды ИИ и методы оптимизации. Небольшие, простые программы генерируют и регистрируют почтовые ящики, совмещая реальные имена и фамилии с разными наборами чисел. Большие программы создают синтетические персональные данные, используя машинное обучение. По словам Джонстона, комбинируя информацию о нескольких людях можно получить идеальную комбинацию. Если детектор мошенничества проверяет искусственно созданные персональные данные, он часто обнаруживает, что мошенник создал не только поддельную учетную запись электронной почты, но и страницу на Facebook и других интернет-порталах.
Таким образом, навыки обнаружения мошенничества, которыми обладают программисты из сферы кибербезопасности, противопоставляются навыкам непосредственно самого мошенничества, осуществляемого «черными шляпами».
Мошенники используют свои навыки не только в банковской сфере, но и в области распознавания изображений и речи, где их программные инструменты используются для создания поддельных новостей, видеороликов и звука. На самом деле, мошеннические операции с денежными переводами, в которых используется поддельное аудио, развиваются гораздо быстрее, чем операции с онлайн-платежами, считает Ник Мейнард из Juniper Research. Он заявил, что случаи потери денег таким образом вырастут на 130% к 2024 году.
«Машинное обучение становится все более востребованным для предотвращения мошенничества» — говорит Мейнард.
Эта война искусственных интеллектов похожа на популярную игру Whac-A-Mole (досл. ударь крота). Периодически то один, то другой ИИ берет верх. Джонстон сравнивает эту ситуацию с игрой в кошки-мышки. Он измеряет успех и неудачу по одной переменной, которую он называет «трением». «Трение» замедляет одну или другую сторону, пока новая форма «смазки» не помогает тому или иному лагерю выйти вперед.
«Мошенники реагируют на «трения», так же, как обычные пользователи в Интернете. Когда мы получаем преимущество, создавая мошенникам слишком сильные «трения», они переходят к более простой цели, не защищенной детекторами мошенничества».
Хорошая защита от мошенничества увеличивает «трение» для преступников и уменьшает «трение» для программистов в сфере кибербезопасности. Достижения с одной стороны, однако, вызывают перемену стратегии другой стороны», — объясняет Джонстон.
«Когда интернет только появился, воровать особо было нечего, поэтому в основном мошенники проверяли кредитные карты онлайн, а затем покупали на них товары в магазинах.» — продолжает Джонстон. Сегодня онлайн-покупки доступны всем, в том числе и преступникам. С распространением банковских карт с системой безопасности прийти в магазин и потратить всю сумму с украденной карты уже не представляется возможным. Поэтому этот вид мошенничества перешел в сеть. Для его обнаружения искусственному интеллекту в системах распознавания мошеннических операций нужен более детальный анализ.
«На 2020 год наши самые успешные методы защиты от мошенничества основаны на использовании большого количества данных о моделях, которые обычно используют киберпреступники.» — говорит Джонстон. «Злоумышленники могут украсть все ваши секреты, но не могут имитировать ваши вкусы, поведение и историю. В конце концов, мошенникам приходится заниматься мошенничеством, чтобы получить что-то ценное. С помощью правильных данных мы можем определить разницу между мошенником и обычным клиентом.»
Фейковые новости/видео/аудио
ИИ уже использовался для автоматического создания фейковых новостей. Например, прототип системы генерации текста OpenTI GPT-2 использует машинное обучение для перевода текста, ответов на вопросы и написания фейковых новостей. Когда в GPT-2 ввели предложение «Россия объявила войну Соединенным Штатам после того, как Дональд Трамп случайно…», система создала фальшивую новость:
Россия объявила войну Соединенным Штатам после того, как Дональд Трамп случайно выпустил ракету в воздух. Россия заявила, что «определила траекторию полета ракеты и примет необходимые меры для обеспечения безопасности российского населения и стратегических ядерных сил страны». Белый дом заявил, что «крайне обеспокоен нарушением Россией договора о запрете баллистических ракет средней дальности».
Более подробную информацию о создании фейковых новостей с помощью GPT-2 можно найти на сайте OpenAI.
«Консорциумы с открытым исходным кодом, такие как OpenAI, показывают нам, каким может быть будущее мошенничества: использование автоматизированных инструментов, которые можно масштабировать до массовых нападений», — говорит Дэвид Доерманн, профессор науки и техники в университете в Буффало. «На данный момент у мошенников есть преимущество, но мы должны сохранять этот разрыв небольшим, чтобы быстро их обогнать. Ситуация во многом напоминает вредоносное ПО, где каждый новый вирус, созданный хакером, уничтожается благодаря программистам кибербезопасности. Возможно однажды эта игра станет слишком дорогой для мошенников и они остановятся, но скорее всего ситуация останется похожей на перетягивание каната без явного победителя.»
В то же время, по словам Доерманна, борцы с киберпреступностью должны просвещать людей, чтобы они воспринимали информацию в Интернете с некоторым сомнением. Если что-то звучит слишком хорошо (или слишком плохо), чтобы быть правдой, то, вероятно, так оно и есть. «Можно подумать, что это невыполнимая задача, но это не так. Например, большинство людей теперь знают, что не нужно нажимать на ссылки из незнакомых источников, а почтовые сервисы знают, как определять спам и отфильтровывать его до того, как он попадет в ваш почтовый ящик», — поясняет Доерманн. Известные фейки и даже возможные фейки могут быть помечены соответствующим знаком или надписью, чтобы люди не воспринимали их серьезно. В некоторых случаях, фейковый контент может быть отфильтрован полностью, не нарушая закон о Первой поправке.
Ираклий Беридзе, руководитель Центра ИИ и робототехники при Международном научно-исследовательском институте ООН по вопросам преступности и правосудия (UNICRI), согласен с этим. «Подделка информации в сети лишь новая ветвь проблемы манипулирования новостями. Она существует уже давно, но лишь недавно стала настолько доступной. Необязательно быть техническим гением, чтобы создавать фейковый контент», говорит Беридзе. «Распространение фейковых новостей порождает проблемы, которые могут угрожать национальной безопасности, в том числе выборам и безопасности граждан. Помимо этого они подрывают дипломатию, демократию, общественный дискурс и журналистику».
По словам Беридзе, многие организации пытаются придумать ПО, позволяющее облегчить распознавание фейкового контента. Беридзе и Доерманн утверждают, что такое ПО уже доступно, его лишь нужно доработать. Между тем, оба согласны с тем, что нужно проделать большую работу с доверчивостью среднестатистического пользователя. В свое время людям рассказали, что такое спам и как его распознать. Пришла пора сделать тоже самое с фейковыми новостями. Нужно развивать в людях критическое мышление.
В прошлом году на хакатоне в Гааге, посвященному миру, справедливости и безопасности, UNICRI выдвинули задачу на тему фабрикации контента. Участникам нужно было создать инструмент для определения фейковых видео. Этот инструмент должен был осуществлять поддержку правоохранительных органов, органов безопасности, судебных органов, средств массовой информации и широкой общественности.
«Команда победителей предложила архитектуру нейросети для классификации изображений и веб-приложение, которое упрощает взаимодействие с пользователем», — сказал Беридзе. «Это решение впоследствии было усовершенствовано на технических семинарах в течение 2019 года. В 2020 году мы активно работаем над тем, чтобы эта технология перешла в полномасштабное использование».
Беридзе предупреждает, однако, что не существует быстрого решения проблемы фабрикации новостей. Все более быстрые темпы изменения технологий требуют более целостных решений. Нужно отслеживать технологические достижения и сфабрикованные материалы. Используя их, нужно предвидеть какие проблемы возникнут в будущем и понять какие технологии понадобятся для их решения.
«Это циклический процесс, который требует сотрудничества. Именно поэтому одна из целей Центра ООН это содействие обмену знаниями и построению отношений с заинтересованными сторонами. Специалисты в государственном секторе, промышленности, научных кругах, а также органах безопасности, спецслужбах и органах по борьбе с терроризмом помогают властям идти в ногу со временем», — говорит Беридзе.
«При этом мы предоставляем рекомендации по разработке, внедрению и использованию мер борьбы с фабрикацией контента. Эти решения законны, заслуживают доверия и не нарушают права человека».
Фейковые видео и аудио одна из новых инноваций в вопросе мошенничества, которая демонстрирует использование ИИ в плохих целях. Люди стали понимать, что такое фейковые новости во время выборов в 2016 году, тогда это словосочетание было у всех на слуху. Большинство политических видеороликов были явно поддельными. В них была очень грамотно наложена звуковая дорожка, подстроенная под движения губ. Содержание этих видео было больше похоже на первоапрельскую шутку. Используя инструменты распознавания лиц с помощью машинного обучения, мошенники создали фейковые видео, которым верит даже самый искушенный зритель.
Доерманн является бывшим руководителем программы MediFor (Media Forensics) в управлении перспективными исследовательскими проектами Министерства обороны США (DARPA). Он утверждает, что DARPA уже разработала автоматизированные инструменты для судебной фототехнической экспертизы изображений, полученных государственными учреждениями. Когда-то эти инструменты были ручными, но потом в них добавили ИИ, который позволил автоматизировать процесс.
«Мы разработали инструменты ИИ для обнаружения фейкового контента задолго до того, как это стало проблемой для общества. Мы были обеспокоены террористами и источниками дезинформации в иностранных правительствах. Наша цель была в том, чтобы полностью автоматизировать методы, используемые экспертами для обнаружения фейковых новостей. Мы хотели, чтобы все материалы, собранные правительством и основанные на анализе изображений могли проходить через наш аутентификатор.», говорит Доерманн.
MediFor все еще действует, но вступила в стадию, когда результаты ее фундаментальных исследований включаются в окончательный автоматизированный инструмент. Одновременно с этим новая программа под названием Semantic Forensics (SemaFor) приняла эстафету базовых исследований. SemaFor собирает изображения, которые были помечены как фальшивые, и применяет алгоритмы атрибуции, чтобы определить, откуда возник медиа-контент. Алгоритмы определения характеристик помогают понять были ли фейковые материалы созданы для злоумышленных целей, например, для кампаний дезинформации или для развлечения.
Первые фейковые видео, которые будут неотличимы от подлинных видеороликов, вероятно, появятся во время президентской кампании 2020 года в США. Фейковые аудио уже давно успешно используются киберпреступниками при мошенничестве с переводом денег. Например, The Wall Street Journal сообщила, что фальшивый телефонный звонок, имитирующий голос главного исполнительного директора (CEO) помог преступнику разбогатеть на 243 000 долларов. В конце концов стало ясно, что звонок был делом рук мошенников, но деньги давно прошли через сеть электронных переводов, которые власти так и не смогли отследить.
В идеале нам нужно средство проверки, которое сможет мгновенно определять и отмечать фейковый контент в режиме реального времени. К сожалению, скорее всего, мошенники создадут ИИ, который сможет обманывать нас и красть наши деньги в режиме реального времени.
Автор статьи — Р. Колин Джонсон — стипендиат премии Киото, проработавший технологическим журналистом в течение 20 лет.
Перевод: Диана Шеремьёва
Узнайте подробности, как получить востребованную профессию с нуля или Level Up по навыкам и зарплате, пройдя платные онлайн-курсы SkillFactory:
- Курс по Machine Learning (12 недель)
- Обучение профессии Data Science с нуля (12 месяцев)
- Профессия аналитика с любым стартовым уровнем (9 месяцев)
- Курс «Python для веб-разработки» (9 месяцев)