Новости ARIA: проект, раскрывающий темные стороны искусственного интеллекта

NewsMaker

I'm just a script
Премиум
13,850
20
8 Ноя 2022
NIST запустил инициативу, которая не позволит машинам навредить человечеству.


mol7f1w8d8l1odcwrd6eth6l4v0fweng.jpg


Национальный институт стандартов и технологий ( NIST ) объявил о запуске новой программы Для просмотра ссылки Войди или Зарегистрируйся (ARIA), направленной на оценку безопасности и надёжности искусственного интеллекта. Программа поможет организациям и частным лицам понять, насколько безопасна и эффективна будет та или иная технология ИИ после её внедрения. Проект реализуется совместно с Институтом безопасности ИИ.

Зачем нужна ARIA?

ARIA появилась как ответ на исполнительный указ президента Байдена о безопасности ИИ, подписанный в 2021 году. Проект направлен на создание защищенной и справедливой экосистемы для разработки и применения продвинутых нейросетей. Основная цель указа — убедиться, что новые технологии приносят пользу обществу, а не создают угрозы.

Указ был разработан в результате множества консультаций с экспертами в области технологий, права, а также представителями бизнеса и гражданского общества. В нем прописаны основные принципы, которым должны следовать разработчики и пользователи ИИ: прозрачность, безопасность, защита данных и справедливость.

«Чтобы полностью понять влияние ИИ на наше общество, мы должны тестировать его в реальных условиях — и именно этим занимается программа ARIA», — заявила министр торговли США Для просмотра ссылки Войди или Зарегистрируйся . Она отметила, что инициатива является частью усилий Министерства торговли по выполнению указа Байдена.

Участники ARIA будут оценивать, как технологии работают в различных реальных сценариях, а не только в лабораторных условиях. Это позволит выявить возможные негативные последствия на ранних этапах. Лори Е. Локасио, директор NIST, подчеркнула, что ARIA поддержит работу Института безопасности ИИ США и расширит взаимодействие NIST с научным сообществом.

Что уже сделано?

В январе 2023 года NIST выпустил документ под названием Для просмотра ссылки Войди или Зарегистрируйся (Рамки управления рисками ИИ), который стал основой для программы ARIA. В документе прописано, как использовать количественные и качественные методы для анализа и мониторинга опасностей современного мира. ARIA разработает новые методологии и метрики для оценки того, насколько хорошо системы ИИ работают в различных социальных контекстах.

Результаты исследований ARIA помогут NIST и Институту безопасности ИИ США создавать надёжные системы, гарантируя пользователям полную защиту и конфиденциальность.
 
Источник новости
www.securitylab.ru

Похожие темы