Как новый алгоритм защитит пользователей платформы от троллей и фейков.
Европейские учёные создали алгоритм машинного обучения, который способен предугадывать вредоносное поведение пользователей в социальной сети X (бывший Twitter ). Исследование, опубликованное 12 июля Для просмотра ссылки Войдиили Зарегистрируйся , показывает значительный прогресс в противодействии распространению ложной информации и манипулированию общественным мнением в интернете.
Группа учёных под руководством Рубена Санчеса-Коркуэры, профессора инженерии из Университета Деусто в Испании, разработала модель на 40% эффективнее существующих аналогов. Алгоритм базируется на модели JODIE (Jointly Optimizing Dynamics and Interactions for Embeddings) - она рассчитывает вероятность разных сценариев коммуникации пользователей в социальных сетях. Однако исследователи усовершенствовали её, добавив рекуррентную нейронную сеть, которая учитывает прошлые действия человека и промежутки времени между ними.
Модель проверили на трёх реальных наборах данных, включающих миллионы твитов от граждан Китая, Ирана и России. Первый набор содержал 936 аккаунтов, связанных с правительством КНР. Эти аккаунты стремились разжечь политические беспорядки во время протестов в Гонконге в 2019 году. Во второй набор вошло 1666 Twitter-аккаунтов, связанных с иранским правительством. Они публиковали предвзятые твиты в поддержку дипломатических и стратегических интересов Ирана в 2019 году. Набор, состоящий из аккаунтов российских пользователей, содержал 1152 записи.
Результаты тестирования порадовали разработчиков. Например, проанализировав всего 40% взаимодействий в иранском наборе данных, ИИ точно определил 75% пользователей, которые позже нарушили политику платформы. Профессор Санчес-Коркуэра подчёркивает важность алгоритма для создания более безопасной и конструктивной онлайн-среды. По его мнению, снижение уровня ненависти и манипуляций в социальных сетях может уменьшить поляризацию общества. Это положительно повлияет не только на цифровые платформы, но и на общее благополучие людей.
По словам ученых, их подход по большей части применим к социальным сетям, основанным на тексте, таким как X. Для платформ, ориентированных на мультимедийный контент, вроде TikTok или Instagram*, потребуются другие методы. Программа использует временные характеристики, что делает её особенно эффективной в условиях, когда аудитория постоянно нарастает и равный доступ к сети есть у пользователей из разных стран, с разными бэкграундами.
Исследование также поднимает важные этические вопросы о балансе между безопасностью и свободой слова в интернете. Конечно, внедрение подобных алгоритмов требует тщательного рассмотрения потенциальных рисков и разработки чётких правил их применения.
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.</span>
Европейские учёные создали алгоритм машинного обучения, который способен предугадывать вредоносное поведение пользователей в социальной сети X (бывший Twitter ). Исследование, опубликованное 12 июля Для просмотра ссылки Войди
Группа учёных под руководством Рубена Санчеса-Коркуэры, профессора инженерии из Университета Деусто в Испании, разработала модель на 40% эффективнее существующих аналогов. Алгоритм базируется на модели JODIE (Jointly Optimizing Dynamics and Interactions for Embeddings) - она рассчитывает вероятность разных сценариев коммуникации пользователей в социальных сетях. Однако исследователи усовершенствовали её, добавив рекуррентную нейронную сеть, которая учитывает прошлые действия человека и промежутки времени между ними.
Модель проверили на трёх реальных наборах данных, включающих миллионы твитов от граждан Китая, Ирана и России. Первый набор содержал 936 аккаунтов, связанных с правительством КНР. Эти аккаунты стремились разжечь политические беспорядки во время протестов в Гонконге в 2019 году. Во второй набор вошло 1666 Twitter-аккаунтов, связанных с иранским правительством. Они публиковали предвзятые твиты в поддержку дипломатических и стратегических интересов Ирана в 2019 году. Набор, состоящий из аккаунтов российских пользователей, содержал 1152 записи.
Результаты тестирования порадовали разработчиков. Например, проанализировав всего 40% взаимодействий в иранском наборе данных, ИИ точно определил 75% пользователей, которые позже нарушили политику платформы. Профессор Санчес-Коркуэра подчёркивает важность алгоритма для создания более безопасной и конструктивной онлайн-среды. По его мнению, снижение уровня ненависти и манипуляций в социальных сетях может уменьшить поляризацию общества. Это положительно повлияет не только на цифровые платформы, но и на общее благополучие людей.
По словам ученых, их подход по большей части применим к социальным сетям, основанным на тексте, таким как X. Для платформ, ориентированных на мультимедийный контент, вроде TikTok или Instagram*, потребуются другие методы. Программа использует временные характеристики, что делает её особенно эффективной в условиях, когда аудитория постоянно нарастает и равный доступ к сети есть у пользователей из разных стран, с разными бэкграундами.
Исследование также поднимает важные этические вопросы о балансе между безопасностью и свободой слова в интернете. Конечно, внедрение подобных алгоритмов требует тщательного рассмотрения потенциальных рисков и разработки чётких правил их применения.
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.</span>
- Источник новости
- www.securitylab.ru