Исследователи пришли к выводу, что во всём виноваты сами пользователи.
За последние годы многие социальные сети неоднократно обвинялись в рассадничестве различного рода экстремистского контента. Тот же YouTube критиковали за косвенное продвижение расистских, сексистских и враждебных видео через алгоритмы рекомендаций.
Однако результаты недавнего исследования вносят некую ясность в работу рекомендательных систем. Так, социологи из США и Великобритании обнаружили, что большинство зрителей экстремистских видео на YouTube — это люди, которые и так придерживаются экстремистских взглядов.
В своём исследовании, Для просмотра ссылки Войдиили Зарегистрируйся в журнале Science Advances , группа исследователей проанализировала уже имеющиеся данные опросов общественного мнения, а также провела собственный эксперимент, использовав специальное программное обеспечение для отслеживания онлайн-просмотров отобранной группы людей, чтобы лучше узнать о предпочтениях и привычках пользователей YouTube.
Учёные обнаружили, что YouTube редко рекомендует враждебный контент кому-либо, кроме небольшого числа подписчиков самых известных экстремистских каналов.
В частности, около 15% зрителей на регулярной основе смотрят видео с умеренно агрессивным контентом, в то время как всего 0,6% людей с крайними взглядами смотрят порядка 80% экстремистских роликов от их общего потока просмотра.
Иными словами, таких людей меньшинство, и YouTube рекомендует им экстремистские видео лишь потому, что они самостоятельно смотрят их на регулярной основе и подписываются на соответствующие каналы.
В то же время, люди, которые намеренно не ищут подобные видеоматериалы и не подписываются на их авторов, вообще не сталкиваются с экстремистским контентом в своих рекомендациях.
Таким образом, проблема кроется не в технологиях, а в самих людях, их взглядах и предпочтениях. Однако технологическим компаниям не стоит раньше времени радоваться и праздновать свою правоту. Им необходимо и дальше продолжать совершенствовать модерацию своих платформ, чтобы ограничить любое потенциальное распространение опасного контента.
За последние годы многие социальные сети неоднократно обвинялись в рассадничестве различного рода экстремистского контента. Тот же YouTube критиковали за косвенное продвижение расистских, сексистских и враждебных видео через алгоритмы рекомендаций.
Однако результаты недавнего исследования вносят некую ясность в работу рекомендательных систем. Так, социологи из США и Великобритании обнаружили, что большинство зрителей экстремистских видео на YouTube — это люди, которые и так придерживаются экстремистских взглядов.
В своём исследовании, Для просмотра ссылки Войди
Учёные обнаружили, что YouTube редко рекомендует враждебный контент кому-либо, кроме небольшого числа подписчиков самых известных экстремистских каналов.
В частности, около 15% зрителей на регулярной основе смотрят видео с умеренно агрессивным контентом, в то время как всего 0,6% людей с крайними взглядами смотрят порядка 80% экстремистских роликов от их общего потока просмотра.
Иными словами, таких людей меньшинство, и YouTube рекомендует им экстремистские видео лишь потому, что они самостоятельно смотрят их на регулярной основе и подписываются на соответствующие каналы.
В то же время, люди, которые намеренно не ищут подобные видеоматериалы и не подписываются на их авторов, вообще не сталкиваются с экстремистским контентом в своих рекомендациях.
Таким образом, проблема кроется не в технологиях, а в самих людях, их взглядах и предпочтениях. Однако технологическим компаниям не стоит раньше времени радоваться и праздновать свою правоту. Им необходимо и дальше продолжать совершенствовать модерацию своих платформ, чтобы ограничить любое потенциальное распространение опасного контента.
- Источник новости
- www.securitylab.ru