Новости ИИ и ядерная безопасность: США и Китай совместно стремятся к контролю технологий

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Джо Байден и Си Цзиньпинь ищут ответ на вопрос: можно ли доверять ИИ ядерную кнопку?


d7hk7h5ckt631cbg0l28ouaejvqv9ooq.jpg


Встреча президента США Джо Байдена и лидера Китая Си Цзиньпина ознаменовалась важным решением о начале диалога по поводу растущих рисков искусственного интеллекта (ИИ). Хотя изначально предполагалось, что лидеры договорятся о запрете использования ИИ в некоторых областях, включая контроль над ядерным оружием, такого соглашения достигнуто не было.

Однако в пресс-релизах Для просмотра ссылки Войди или Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся была упомянута возможность проведения американо-китайских переговоров по ИИ, которые могут затрагивать широкий спектр вопросов, включая риски создания ИИ, не соответствующего человеческим ценностям, и все более распространенное использование систем автономного вооружения. Особое внимание планируется уделить вопросу применения ИИ в принятии решений о ядерных ударах.

Вашингтон и Пекин пока не уточнили, какие эксперты будут задействованы в обсуждении этих вопросов. США уже подняли тему «ответственного» развития ИИ и продвигают «Политическую декларацию об ответственном военном использовании искусственного интеллекта и автономии». Для просмотра ссылки Войди или Зарегистрируйся не является запретом или юридически обязывающим договором, а больше представляет из себя набор принципов. Декларация подчеркивает важность сохранения роли человека для принятия решений о жизни и смерти, что особенно актуально в контексте использования ядерного оружия.

Стоит отметить, что сейчас обсуждается прогресс в разработке автономных боевых дронов, Для просмотра ссылки Войди или Зарегистрируйся о ликвидации людей. Такие дроны, оснащенные искусственным интеллектом для выбора целей, разрабатываются в нескольких странах, включая США, Китай и Израиль.

Возникают вопросы о реальной эффективности требования о решениях человека в контексте ядерных вооружений и ИИ. Важно обеспечить, чтобы человек, включенный в процесс, имел реальный контроль и не полагался исключительно на суждения ИИ.

Существует опасность, что лидеры могут начать полагаться на ИИ для «поддержки принятия решений», что может привести к ошибочным выводам и усилению предвзятости. В данном случае важно минимизировать зависимость от информации, сгенерированной ИИ, и обеспечить подлинное подтверждение перед ответными действиями в ядерной политике. В целом, мировые лидеры, скорее всего, будут все больше полагаться на ИИ, и вопрос обсуждений между США и Китаем должен касаться адекватности ядерной стратегии в мире, где ИИ становится повсеместным.
 
Источник новости
www.securitylab.ru

Похожие темы