Китайские исследователи заявляют, что они создали ИИ для обнаружения сарказма. Нейросеть обучили на базе данных из Twitter. ИИ оценивает текст поста и привязанное к нему изображение, чтобы понять, саркастичен пост или нет.
«Сарказм — это своеобразная форма выражения чувств, при которой поверхностная эмоция отличается от подразумеваемой. Обнаружение сарказма на платформах социальных сетей в прошлом применялось, в основном, к текстовым высказываниям. В этом случае для обнаружения саркастического тона использовались лексические индикаторы (например, междометия), лингвистические маркеры и контекстная информация (например, профили пользователей). Однако современные платформы социальных сетей позволяют создавать мультимодальные сообщения, в которых аудиовизуальный контент объединяется с текстом, что делает анализ отдельной части сообщения неполным», — поясняют исследователи.
ИИ исследователей фокусируется на различиях между текстом и изображениями, а затем объединяет эти результаты для составления прогнозов. Он также сравнивает хэштеги с текстом твита, чтобы помочь оценить настроение, которое пытается передать пользователь.
В ходе тестирования модель китайских ученых показала улучшение на 2,74% по шкале F1 (оценка классификатора) сравнению с HFM (Hierarchical Fusion Model), представленной в прошлом году: новая нейросеть достигла 86% точности по сравнению с 83% у HFM.
Ученые начали использовать ИИ для изучения сарказма в Instagram, Tumblr и Twitter в 2016 году. В 2019 году исследователи из Мичиганского и Сингапурского университетов выпустили нейросеть для обнаружения сарказма в телешоу под названием MUStARD. Тесты показали, что использование мультимодальной информации может снизить уровень ошибок при обнаружении сарказма до 12,9% по шкале F1 по сравнению с оценкой одного типа информации.
Весной этого года Facebook рассказала об использовании искусственного интеллекта для выявления постов, нарушающих условия платформы. ИИ Facebook пытается обнаружить оскорбления, разжигание ненависти и хейтспич. В компании рассказали, что в первом квартале 2020 года соцсеть выявила и удалила 9,6 млн единиц контента, который был определён как оскорбительный или ненавистнический. Из 9,6 млн удалённых постов алгоритмы Facebook обнаружили 88,8% раньше, чем о них сообщили пользователи. Это на 86% больше, чем в предыдущем квартале.
Тем не менее, в Facebook признали, что алгоритмы пока не готовы к широкому развертыванию — точность их работы составляет около 65-70%.
Murmurianez
Надеюсь, эта штука поможет некоторым понимать комментарии лучше
tvr
Автоматическая раскраска текста красненьким?
Murmurianez
Да, но должна быть опция для отключения — не все любят спойлеры. Смотрю, вам тонко раскрасили))
tvr
Не распарсили :((