Компания Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM). Об этом пишет Для просмотра ссылки Войди
Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии. По словам представителя Apple, компания пойдет другим путем для борьбы с незаконным контентом.
По словам экспертов, распространение CSAM-материалов Для просмотра ссылки Войди«Дети могут быть защищены без корпораций, просматривающих личные данные. Мы продолжим работать с правительствами, правозащитниками и другими компаниями, чтобы помочь защитить молодых людей, сохранить их право на неприкосновенность частной жизни и сделать интернет безопасным местом для всех», — заявил он.
В августе 2021 года техгигант Для просмотра ссылки Войди
Менее чем через четыре дня Apple Для просмотра ссылки Войди
Тем не менее общественность лишь Для просмотра ссылки Войди
Спустя месяц после анонса техгигант Для просмотра ссылки Войди
Напомним, в июле 2022 года власти Великобритании поддержали план по Для просмотра ссылки Войди
В том же месяце Meta анонсировала начало разработки Для просмотра ссылки Войди
- Источник новости
- https://forklog.com/news/apple-otkazalas-ot-skanirovaniya-icloud-na-nalichie-csam-izobrazhenij