Компании запускают сигналы тревоги о преступлениях против детей на крупных медиа-платформах.
Коалиция ведущих технологических компаний (Tech Coalition) Для просмотра ссылки Войдиили Зарегистрируйся о запуске программы Lantern, цель которой — усилить борьбу с сексуальной эксплуатацией и насилием над детьми в Интернете (Child Sexual Exploitation and Abuse, CSEA).
В рамках Lantern, крупные сервисы, включая Discord , Google , Mega, Meta*, Quora, Roblox , Snap и Twitch**, будут обмениваться данными о потенциально противоправной деятельности и учетных записях, подозреваемых в нарушении политик в сфере безопасности детей. Система позволит партнерам делиться «сигналами», которые могут включать электронные адреса, имена пользователей и ключевые слова, связанные с материалами CSAM и процессом купли-продажи этих материалов.
Сигналы, собранные в Lantern, предоставят основу для дальнейших расследований и будут служить доказательствами для правоохранительных органов, хотя сами по себе они не являются неопровержимым доказательством преступлений. Во время пилотной фазы проекта Mega предоставил URL-адреса, которые впоследствии использовались Meta для удаления более 10 000 профилей и страниц на Facebook и аккаунтов в Instagram, что подчеркивает эффективность совместных усилий.
После оценки исходной первой фазы программы Tech Coalition планирует расширить охват, пригласив новых партнеров. Решение основано на понимании того, что сексуальное насилие над детьми часто не имеет границ и ни одна компания в одиночку не способна полностью оценить вред, наносимый жертвам. Сотрудничество и обмен данными между разными платформами является ключевым для всестороннего реагирования и принятия мер.
Вопрос борьбы с CSEA остается сложным, учитывая необходимость баланса между безопасностью детей и конфиденциальностью онлайн. Проблема усугубляется распространением материалов об эксплуатации детей, включая контент, сгенерированный нейросетями. В 2022 году Национальный центр поиска и помощи пропавшим и эксплуатируемым детям получил свыше 32 млн. сообщений о CSAM, что свидетельствует о масштабе проблемы.
Напомним, что в 2022 году Евросоюз ввел Для просмотра ссылки Войдиили Зарегистрируйся . Еврокомиссия будет требовать от технологических компаний сканировать CSAM-материалы и давать рекомендации по защите детей от такого контента.
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
<span style="font-size: 8pt;"> </span> <span style="font-size: 8pt;"> ** Сервис заблокирован на территории Российской Федерации.</span>
Коалиция ведущих технологических компаний (Tech Coalition) Для просмотра ссылки Войди
В рамках Lantern, крупные сервисы, включая Discord , Google , Mega, Meta*, Quora, Roblox , Snap и Twitch**, будут обмениваться данными о потенциально противоправной деятельности и учетных записях, подозреваемых в нарушении политик в сфере безопасности детей. Система позволит партнерам делиться «сигналами», которые могут включать электронные адреса, имена пользователей и ключевые слова, связанные с материалами CSAM и процессом купли-продажи этих материалов.
Сигналы, собранные в Lantern, предоставят основу для дальнейших расследований и будут служить доказательствами для правоохранительных органов, хотя сами по себе они не являются неопровержимым доказательством преступлений. Во время пилотной фазы проекта Mega предоставил URL-адреса, которые впоследствии использовались Meta для удаления более 10 000 профилей и страниц на Facebook и аккаунтов в Instagram, что подчеркивает эффективность совместных усилий.
После оценки исходной первой фазы программы Tech Coalition планирует расширить охват, пригласив новых партнеров. Решение основано на понимании того, что сексуальное насилие над детьми часто не имеет границ и ни одна компания в одиночку не способна полностью оценить вред, наносимый жертвам. Сотрудничество и обмен данными между разными платформами является ключевым для всестороннего реагирования и принятия мер.
Вопрос борьбы с CSEA остается сложным, учитывая необходимость баланса между безопасностью детей и конфиденциальностью онлайн. Проблема усугубляется распространением материалов об эксплуатации детей, включая контент, сгенерированный нейросетями. В 2022 году Национальный центр поиска и помощи пропавшим и эксплуатируемым детям получил свыше 32 млн. сообщений о CSAM, что свидетельствует о масштабе проблемы.
Напомним, что в 2022 году Евросоюз ввел Для просмотра ссылки Войди
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
<span style="font-size: 8pt;"> </span> <span style="font-size: 8pt;"> ** Сервис заблокирован на территории Российской Федерации.</span>
- Источник новости
- www.securitylab.ru