Всем привет. Сегодня делимся с вами переводом статьи, который был подготовлен в преддверии старта нового курса от OTUS — «Компьютерное зрение».




Журналисты и фактчекеры сталкиваются с огромными трудностями при отделении достоверной информации от быстро распространяющейся дезинформации. И это относится не только к текстам, которые мы читаем. Виральные изображения и мемы заполняют наши ленты новостей и чаты, и зачастую они искажают контекст или являются фейками. В Азии, где пользователей социальных сетей в восемь раз больше, чем в Северной Америке, масштаб проблемы намного серьезнее.

Существуют инструменты, которые азиатские журналисты могут использовать для определения происхождения и оценки достоверности новостных изображений, но они относительно старые, ненадежные и по большей части доступны только для настольных компьютеров. Это является препятствием для фактчекеров и журналистов в странах, где большинство людей подключаются к Интернету с помощью своего мобильного телефона.

В течении последних двух лет Google News Initiative работала в сотрудничестве с журналистами над технологией идентифицирования обработанных изображений. В 2018 году на саммите Trusted Media в Сингапуре группа экспертов из Google, Storyful и широкого круга представителей индустрии новостей объединила усилия для разработки нового инструмента, оптимизированного для мобильных устройств и использующего наработки искусственного интеллекта. При поддержке Google News Initiative, GNI Cloud Program и инженеров-добровольцев из Google полученный тогда прототип превратился в приложение под названием Source, powered by Storyful.

Теперь же, когда приложение уже используется журналистами по всему региону, мы попросили Имонна Кеннеди, директора по продуктам Storyful, рассказать нам о нем немного больше.

В чем Storyful видит проблемы, с которыми сталкиваются журналисты и фактчекеры во всем мире и в частности в Азии?

[Имонн Кеннеди] Публикация в социальной сети часто является следствием эмоционального импульса, а не полноценного рационального анализа. Любой может поделиться историей с тысячами других людей еще до того, как он или она закончит читать изложенное. Злоумышленники знают это и делают ставку на эмоции людей. Они хотят злоупотреблять свободным доступом к социальным платформам и загрязнять разговоры ложными фактами и рассказами, в том числе и экстремистского толка. Для лиц, проверяющих факты, это означает, что любая беседа уязвима для лжи и манипуляций из любой точки мира в любое время.

Не могли бы вы рассказать нам немного о процессе разработки Source и о том, как AI помог справиться с некоторыми из задач?

[ИК] В Storyful, мы наблюдаем, как старые, неточные или обработанные изображения расшариваются чтобы продвинуть вводящее в заблуждение повествование в больших и малых новостных циклах.

Обычный для журналистов способ решить эту проблему — использовать обратный поиск изображений, чтобы доказать, что изображение старое и использовалось повторно, но у него есть пара проблем. Во-первых, эти вторично переработанные изображения часто подделывают — журналист должен иметь возможность идентифицировать манипуляции с изображением, чтобы у него было больше шансов найти оригинал. Во-вторых, результаты поиска упорядочены по дате с новыми результатами вначале выборки, в то время как журналисты, как правило, интересуются старыми результатами, что в итоге подразумевает длительную прокрутку для того, чтобы найти оригинал.

Source использует технологию Google's AI, чтобы предоставить мгновенный доступ к публичной истории изображения, позволяя вам сортировать, анализировать и понимать его происхождение, включая любые манипуляции. Одно это уже достаточно полезно, но мы идем еще дальше. Source также помогает обнаруживать и переводить текст в изображениях, что особенно полезно для журналистов, каталогизирующих или анализирующих мемы в Интернете.



Приложение Source улучшает способность журналистов проверять происхождение или подлинность конкретного изображения, отслеживать источник и эволюцию мемов.


Как ньюсрумы используют Source и каковы планы на 2020 год?
[ИК] На данный момент приложение использовали 130 человек из 17 разных стран для проверки происхождения изображений в социальных сетях, приложениях для обмена сообщениями и новостных сайтах. Особенно приятно видеть, что 30 процентов пользователей Source получают доступ к сайту со своего мобильного телефона, и что наша самая большая база пользователей находится в Индии, где члены Ассоциации издателей цифровых новостей — коалиции ведущих медийных компаний, занимающихся борьбой с дезинформацией — предоставляют нам важную обратную связь.

Заглядывая наперед, мы прислушиваемся к фактчекерам, когда думаем о том, какой будет следующая версия приложения. Мы знаем, что Source использовался, например, для исследования кадров из видео, что показывает нам потенциал развития приложения для работы не только с текстом или изображениями. Конечная цель заключается в создании «набора инструментов» из общедоступных ресурсов для проверки фактов, с Source в центре, используя Google AI для помощи журналистам по всему миру.




На этом перевод подошел к концу, но мы попросили прокомментировать статью руководителя курса — Артура Кадурина:
Одна из современных “горячих” тем в области компьютерного зрения, “Adversarial attacks” — методы “обмана” современных алгоритмов распознавания и обработки визуальной информации с помощью новых, специально сконструированных изображений. За последние годы несколько раз получали широкую огласку приложения обрабатывающие фото и видео особым образом (FaceApp, Deepfake, etc.), один из ключевых вопросов заключается в том, можем ли мы использовать нейронные сети для того, чтобы отличать настоящие изображения от обработанных. Одна из тем курса «Компьютерное Зрение» посвящена этому вопросу, на занятии мы разберем современные подходы и к тому, как правильно определять “обман” с помощью нейронных сетей, и к тому, как их успешно “обманывать”.

> Узнать подробнее о курсе