Рекомендательные алгоритмы YouTube часто предлагают зрителям видео, которые нарушают правила самого видеохостинга. К такому выводу пришла некоммерческая организация Mozilla Foundation в ходе недавнего исследования.
В сентябре 2020 года YouTube запустил расширение, которое позволяет зрителям сообщать о роликах, нарушающих правила или возмутивших их. Mozilla Foundation попросила 30 тысяч добровольцев установить расширение в свои браузеры. Расширение «запоминало» путь к тому или иному ролику, фиксируя контент, за которым следовала рекомендация алгоритма.
Исследование проходило с июля 2020-го по май 2021-го. За это время добровольцы отметили с помощью расширения 3362 материала из 91 страны. 71% из них рекомендовал алгоритм видеохостинга. Как правило, помеченные видеоролики содержали сцены насилия, сексуальные сцены, спам, мошенничество, хейтспич или дезинформацию. 200 роликов впоследствии были удалены с платформы как нарушающие ее правила, хотя до того, как на них пожаловались добровольцы, видео успели набрать 160 миллионов просмотров в сумме.
Как выявило исследование, вероятность того, что доброволец пометит ролик как неприятный, была у рекомендованных алгоритмом материалов на 40% выше, чем у тех видео, которые они находили через поиск. При этом известно, что на рекомендованные видео 70% просмотров на платформе — это около 700 миллионов часов ежедневно.
Старший менеджер по вопросам защиты интересов Mozilla Брэнди Геркинк заявил, что «YouTube должен признать, что его алгоритм дезинформирует зрителей». Исследование выявило неожиданную деталь: оказалось, что «в 43,3% случаев рекомендация была совершенно не связана с предыдущими видео, которые смотрел доброволец». Кроме того, количество видео, получивших жалобу, на 60% выше в странах, где английский не является основным языком. Несмотря на небольшой размер выборки, это указывает на то, что стоит обратить внимание на работу алгоритма в этих сегментах платформы считают в Mozilla Foundation.
YouTube сообщает, что видеоролики, продвигаемые системой рекомендаций, набирают более 200 миллионов просмотров в день.
«Мы постоянно работаем над улучшением работы, и только за последний год мы внесли более 30 различных изменений, чтобы уменьшить количество рекомендаций, содержащих вредоносный контент», — говорится в заявлении компании.
AC130
Если ютуб знает что видео нарушает правило, то он удалит видео и не будет его рекомендовать. Если ютуб этого не знает, то факт нарушения правил не является причиной того, что ролик не будет рекомендован алгоритмом ютуба.
Что вполне возможно если люди сами чаще кликают на «неприятные» ролики. Делать из этого вывод что рекомендательный алгоритм целенаправленно рекомендует «неприятный» ролик — ошибочно.
Что вполне возможно если люди сами при гулянии по ютубу чаще выбирают ролики, не связанные с предыдущим видео.
Алгоритм можно улучшать сколько угодно и тратя на это сколько угодно ресурсов самого разного рода; однако если мухи отказываются лететь на мёд, то ни один рекомендательный алгоритм by design не должен им рекомендовать мёд. Эту реальность следует принять и смириться.
edo1h
как я понимаю, исследованием нас хотят убедить, что, помимо интереса пользователей в том и ином виде, ютуб должен учитывать и некоторые «высшие цели».
по сути, речь идёт о введении некоторой формы цензуры.
P. S. уверен, что какая-то она там и сейчас есть. просто не та, что нравится авторам этого исследования.