Новости Apple расширила действие защиты детей от CSAM-материалов

NewsMaker

I'm just a script
Премиум
13,850
20
8 Ноя 2022
Действие функций Communication Safety стало охватывать больше контента и источников.


dzky9ninmuq1ocvk8bsz02laeyia51ea.jpg


В декабре прошлого года Apple объявила о Для просмотра ссылки Войди или Зарегистрируйся над скандальным инструментом для сканирования фотографий в iCloud, который компания разработала для борьбы с материалами сексуального насилия над детьми ( CSAM ) с сохранением конфиденциальности пользователей.

Вместо этого Apple сосредоточится на своих функциях « Для просмотра ссылки Войди или Зарегистрируйся » (Безопасность общения) для детей, которые были впервые анонсированы в августе 2021 года. И на недавней конференции WWDC 2023 Apple представила расширение этих функций.

Опция «Безопасность общения» сканирует сообщения локально на устройствах молодых пользователей, чтобы выявлять контент, содержащий наготу, который дети получают или отправляют в сообщениях на iOS.На WWDC Apple объявила, что функция теперь распространяется и на видеосообщения FaceTime, аватары контактов, инструмент выбора фотографий (где пользователи выбирают фото или видео для отправки), а также AirDrop. Локальная обработка означает, что Apple не видит помечаемый контент.

С осени 2023 года «Безопасность общения» будет включена по умолчанию для всех детских аккаунтов (детей до 13 лет) в плане Семейного доступа. Родители могут самостоятельно отключить функцию при желании.


ggz3t1f1nivq76zrj9zbpo6bdgx9odgs.png


Подсказка функции Communication Safety учётной записи ребёнка

Apple заявила в декабре, что планирует сделать доступным API функции, чтобы сторонние разработчики могли легко интегрировать «Безопасность общения» в свои приложения и использовать ее для обнаружения CSAM-материалов. API, известный как фреймворк анализа чувствительного контента (Sensitive Content Analysis framework), уже доступен для разработчиков. Отметим, что Discord уже заявил о том, что платформа планирует включить API в свои приложения для iOS.

Одна из причин Для просмотра ссылки Войди или Зарегистрируйся «Безопасность общения» заключается в том, что опции охватывают не все приложения и сервисы, что потенциально открывает для злоумышленника ходы для установления контакта с ребёнком.

Apple также запустила похожую опцию для взрослых – «Sensitive Content Warning» (предупреждение о чувствительном контенте), которая аналогично использует локальное сканирование, чтобы пометить и размыть изображения и видео с наготой. Функция является необязательной и управляется в меню настроек конфиденциальности и безопасности iOS. Сканирование происходит более точно, чем «Безопасность общения». Цель опции – защитить взрослых пользователей от контента, который они не хотят видеть.


mk3vk9rpj784bu2izx8uutbwr8t53kr1.png


Функция Sensitive Content Warning для учетной записи взрослого

Сокращение CSAM-материалов в интернете — это сложная проблема. Apple заявляет, что компания не закончила изучение и инвестирование в новые решения. Но при таких высоких ставках есть реальная необходимость для компании типа Apple разработать функции, которые будут эффективны и будут иметь как можно широкий охват.

Напомним, в 2021 году Apple Для просмотра ссылки Войди или Зарегистрируйся о разработке системы сканирования фотографий пользователей iPhone на предмет незаконных снимков. Как сообщается, снимки будут просматриваться программой с целью поиска запрещенных фотоматериалов, таких как детская порнография или иная эксплуатация несовершеннолетних. Система предназначена для работы на устройствах пользователей продукции Apple. Если в галерее обнаружится подозрительный контент, то снимки отправятся сотрудникам на проверку.

Большая часть критики функции была связана с использованием опасной технологии, граничащей со Для просмотра ссылки Войди или Зарегистрируйся , а также с ее неэффективностью при выявлении запрещенного контента. Apple пыталась развеять некоторые недоразумения и успокоить пользователей, но разногласия не утихли.

Поэтому Apple была вынуждена <span style="color: #222222;">выделить дополнительное время на сбор информации и улучшение функции.</span> Для этого компания <span style="color: #222222;">«втихую» Для просмотра ссылки Войди или Зарегистрируйся функции безопасности, направленной на борьбу с CSAM-материалами.</span>
 
Источник новости
www.securitylab.ru

Похожие темы