Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили искусственный интеллект обнаруживать группы вредоносных ботов в соцсетях независимо от того, на каком языке они пишут посты и комментарии. 

Результаты исследования опубликованы в международном журнале JoWUA. Исследователи напоминают, что боты широко используются в чатах поддержки и для распространения рекламы. Также ботов активно применяют для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации. 

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», — рассказал ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН (СПИИРАН входит в СПб ФИЦ РАН) Андрей Чечулин.

Разработчики проанализировали группы ботов и использовали информацию о неявных социальных связях между аккаунтами в качестве входных данных для модели искусственного интеллекта. Ученые изучили ботов, их активность в соцсетях и то, как они взаимодействуют друг с другом и прочими пользователями. Полученные данные позволяют с большой долей вероятности понять, какие аккаунты принадлежат людям, а какие являются ботами.

«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — считает Андрей Чечулин.

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные впоследствии можно использовать для расследования инцидентов безопасности. 

«Например, мы смотрим аккаунт в соцсети какого-нибудь ресторана, а там масса негативных комментариев. Мы можем выявить, боты их оставили или реальные люди. Если боты, то ресторан поймет, что на него ведется атака. Кроме того, мы можем определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры, чтобы эффективно ответить на эту атаку», — резюмировал Андрей Чечулин.

Комментарии (3)


  1. Mordov
    22.08.2021 02:35
    +1

    Лучше бы выясняли кто накручивает положительные отзывы сетевым ритейлерам и ТЦ, а то куда не посмотришь там 4,5 из 5. Толи сами накрутили, то ли за деньги им переправили.


  1. anonymous
    00.00.0000 00:00


  1. Sensimilla
    22.08.2021 07:56

    у них была обширная обучающая выборка