Новости Новая эпоха кибербезопасности: ИИ под защитой международных протоколов

NewsMaker

I'm just a script
Премиум
13,856
20
8 Ноя 2022
Объединённые усилия 18 стран призваны остановить злоупотребления искусственным интеллектом.


46zo0aw0959gt1y1j0w3plb86wtnt9my.jpg


Великобритания и США, в сотрудничестве с партнёрами из 16 других стран, представили новые рекомендации для создания безопасных систем искусственного интеллекта.

Агентство по кибербезопасности и инфраструктурной безопасности США ( CISA ) Для просмотра ссылки Войди или Зарегистрируйся , что новый подход включает в себя обеспечение безопасности исходя из интересов пользователей, радикальную прозрачность и ответственность, а также создание организационных структур, в которых безопасное проектирование является приоритетом.

Цель этих рекомендаций, Для просмотра ссылки Войди или Зарегистрируйся в Национальном центре кибербезопасности Великобритании ( NCSC ), состоит в повышении уровня безопасности ИИ и обеспечении защищённой разработки, внедрения и использования этой технологии.

Руководство основывается на текущих усилиях правительства США по управлению рисками, связанными с ИИ, что включает в себя тщательное тестирование новых инструментов перед их публичным выпуском, наличие защитных мер для предотвращения таких рисков, как предвзятость и дискриминация, а также проблемы конфиденциальности. Кроме того, вводятся надёжные методы для идентификации материалов, созданных с помощью ИИ.

Компании также обязаны содействовать стороннему обнаружению и сообщению об уязвимостях в своих ИИ-системах через программы Bug Bounty .

Согласно NCSC, новые руководства помогут разработчикам интегрировать безопасность ИИ в процесс разработки с самого начала, что включает безопасное проектирование, разработку, внедрение и поддержку, покрывая все важные области в жизненном цикле систем ИИ. Организации должны регулярно моделировать угрозы своим системам, а также обеспечивать безопасность цепочек поставок и инфраструктуры.

Целью агентств также является борьба с враждебными атаками, направленными на ИИ-системы и машинное обучение, которые могут вызывать нежелательное поведение моделей различными способами для выполнения несанкционированных действий и извлечения конфиденциальной информации.

Как отмечает NCSC, существует множество способов достижения этих эффектов, включая атаки с внедрением запросов в большие языковые модели ( LLM ), или преднамеренное искажение обучающих данных или отзывов пользователей, известное как «отравление данных».

Безопасность искусственного интеллекта является критически важным аспектом для всего современного общества. Новые международные рекомендации по созданию безопасных ИИ-систем — определённо верный шаг для внедрения универсального стандарта защиты и предотвращения злоупотреблений новыми технологиями.
 
Источник новости
www.securitylab.ru

Похожие темы