Новости Защитники будущего: как Google, Nvidia, Microsoft и Meta борются с угрозами ИИ

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Новый шаг в развитии AI или новый способ его контроля?


m2zbdkm2qt8mf56fm14rd5aixfvrc9rl.jpg


Искусственный интеллект (ИИ) является одной из самых мощных и перспективных технологий нашего времени, но он также несет в себе ряд рисков и вызовов для человечества. Как обеспечить безопасность, этичность и ответственность ИИ-систем? Как предотвратить злоупотребление ИИ со стороны злонамеренных акторов? Как сбалансировать инновации и регуляцию в области ИИ?

Эти и другие вопросы стоят на повестке дня крупнейших технологических компаний мира, которые активно разрабатывают и применяют ИИ в различных сферах деятельности. Google , Nvidia , Microsoft и Meta (бывший Facebook) объявили о создании совместной инициативы, направленной на обнаружение и устранение потенциальных угроз искусственного интеллекта. Инициатива получила название Для просмотра ссылки Войди или Зарегистрируйся Для просмотра ссылки Войди или Зарегистрируйся и будет проводить независимые аудиты и тестирования ИИ-систем, разрабатываемых как внутри, так и вне этих компаний.

AI Red Team Alliance вдохновлена концепцией красных команд в кибербезопасности, которые имитируют атаки хакеров, чтобы проверить уязвимости систем. В случае ИИ красные команды будут пытаться выявить нежелательные или непредвиденные поведения ИИ-моделей, такие как производство ложной или предвзятой информации, нарушение конфиденциальности данных или манипулирование людьми. Для этого они будут использовать различные методы, такие как анализ кода, взлом защиты, подделка входных данных или создание адверсариальных примеров.

Целью альянса является повышение доверия к ИИ и содействие его безопасному и ответственному использованию в обществе. Компании также надеются предотвратить возможное вмешательство регуляторов, которые могут наложить ограничения на разработку и применение ИИ. Однако альянс также сталкивается с критикой от некоторых экспертов по ИИ, которые считают его недостаточно прозрачным и независимым. Например, профессор Стэнфордского университета Дэфни Коллер заявила, что альянс должен быть открыт для общественного контроля и включать в себя представителей из академии, правительства и гражданского общества.

Альянс будет работать под эгидой Partnership on AI, международной организации, которая объединяет более 100 партнеров из академического, корпоративного и гражданского секторов для изучения и формирования лучших практик по ИИ. Альянс также пригласил другие компании и организации присоединиться к нему и поделиться своими ИИ-системами для тестирования. По словам исполнительного директора Partnership on AI Тереха Мендельсона, альянс является важным шагом в создании культуры сотрудничества и обмена знаниями в области ИИ.
 
Источник новости
www.securitylab.ru

Похожие темы