Эксперты дают советы, но не все их принимают всерьез.
Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе Для просмотра ссылки Войдиили Зарегистрируйся , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий.
“Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война”, - говорится в заявлении, опубликованном на сайте центра.
Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них - гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон.
На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:
Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества.
Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе Для просмотра ссылки Войди
“Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война”, - говорится в заявлении, опубликованном на сайте центра.
Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них - гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон.
На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:
- ИИ может быть использован для создания автономного оружия или химических вооружений
- ИИ может генерировать дезинформацию, которая может дестабилизировать общество и подорвать коллективное принятие решений
- Власть над ИИ может сосредоточиться в руках немногих, что позволит “режимам навязывать узкие ценности через всепроникающий контроль и жесткую цензуру”
- Ослабление человеческого потенциала, когда люди станут зависимы от ИИ “по аналогии со сценарием из фильма " Для просмотра ссылки Войди
или Зарегистрируйся "”
- Создание общих стандартов безопасности и этики для разработки и использования ИИ
- Разработка механизмов контроля и ответственности за действия ИИ
- Поддержка международного сотрудничества и диалога по вопросам ИИ
- Образование и просвещение общественности о возможностях и опасностях ИИ
Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества.
- Источник новости
- www.securitylab.ru