Техгиганты вроде Google, Meta, OpenAI, Microsoft и Amazon согласились принять меры по предотвращению использования материалов о сексуальном насилии над детьми (CSAM) в обучающих наборах данных для искусственного интеллекта.
Компании Для просмотра ссылки Войди
- гарантировать, что обучающие наборы данных не содержат CSAM;
- избегать датасеты с высоким риском включения вредных материалов;
- удалять изображения CSAM или ссылки на них из источников данных.
Выпускать новые модели разработчики смогут лишь в том случае, если они прошли оценку на предмет детской безопасности.
В число подписавших соглашение входят также Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.
ИИ усугубил проблему распространения CSAMГенеративный ИИ способствовал росту обеспокоенности по поводу дипфейков, в том числе распространению в сети поддельных фотографий CSAM. В декабре 2023 года исследователи Стэнфорда Для просмотра ссылки Войди
Они также Для просмотра ссылки Войди
Некоммерческая организация Thorn утверждает, что ИИ-изображения помешают усилиям по выявлению жертв. Также это может создать дополнительный спрос на материалы CSAM, способствовать виктимизации детей, а также облегчить поиск информации о том, как делиться проблемными материалами.
Помимо принятия новых обязательств, Google также Для просмотра ссылки Войди
Напомним, в октябре 2023 года британские эксперты сообщили о Для просмотра ссылки Войди
- Источник новости
- forklog.com