Новости ООН бьет тревогу: успеет ли мир обезопасить себя от рисков ИИ?

NewsMaker

I'm just a script
Премиум
13,854
20
8 Ноя 2022
Исследователи уверены в одном - рынок не справится с регулированием новых технологий.


y9rpn1yk8kcbeonrgxgqm1rszrjvb4id.jpg


В четверг, 19 сентября, Для просмотра ссылки Войди или Зарегистрируйся группы экспертов ООН, в котором содержится важное предостережение: развитие искусственного интеллекта не должно подчиняться исключительно законам рынка. Авторы документа настаивают на необходимости создания инструментов для международного сотрудничества в этой сфере. По мнению специалистов, крайне важно разработать эффективные механизмы регулирования технологии, которая стремительно меняет облик нашего мира.

Команда из 40 профессионалов, среди которых специалисты в области технологий, юриспруденции и защиты данных, была собрана по инициативе Генерального секретаря ООН Антониу Гутерриша в октябре прошлого года. В их докладе, увидевшем свет накануне масштабного "Саммита будущего" ООН, говорится: мировое сообщество до сих пор не выработало единого подхода к управлению ИИ, а развивающиеся страны фактически исключены из дискуссий о будущем этой отрасли.

"Сегодня мы наблюдаем явный дефицит глобального управления в сфере ИИ", – предостерегают эксперты, указывая на трансграничную природу машин. Гутерриш, в свою очередь, подчеркнул: "ИИ должен служить человечеству на принципах справедливости и безопасности. Если мы упустим контроль, риски, связанные с искусственным интеллектом, могут нанести серьезный удар по демократии, миру и стабильности".

Чтобы упростить глобальное сотрудничество, авторы доклада предлагают создать в рамках секретариата ООН гибкую координационную структуру.

"Нельзя допустить, чтобы разработка, внедрение и использование столь мощной технологии зависели исключительно от прихотей рынка", – гласит документ. Первым шагом, по мнению экспертов, должно стать формирование группы ученых, специализирующихся на ИИ, по образу и подобию Межправительственной группы экспертов по изменению климата (МГЭИК). Эта команда будет держать мировое сообщество в курсе возникающих угроз, определять приоритетные направления исследований и изучать потенциал ИИ в борьбе с такими глобальными вызовами, как голод, бедность и гендерное неравенство.

Интересно, что, предлагая создать научную группу, авторы воздерживаются от призывов к немедленному формированию полномасштабного международного регулирующего органа. Такую идею ранее выдвигал Генеральный секретарь ООН Гутерриш, имея в виду структуру, подобную Международному агентству по атомной энергии (МАГАТЭ). Вместо этого авторы доклада занимают более осторожную позицию, отмечая: "Если риски, связанные с ИИ, обострятся, государствам-членам, возможно, придется задуматься о создании более мощного международного института с полномочиями по мониторингу, отчетности, проверке и правоприменению".

Эксперты признают, что из-за молниеносного развития ИИ попытки составить исчерпывающий перечень связанных с ним опасностей обречены на провал. Тем не менее, они выделяют ряд основных угроз: распространение дезинформации, подрывающей устои демократии, появление все более реалистичных дипфейков (особенно порнографического характера), разработка автономного оружия и использование ИИ криминальными и террористическими группировками.

Идея создания группы научных экспертов по ИИ уже нашла отражение в проекте Глобального цифрового пакта, который все еще находится на стадии обсуждения и должен быть принят в воскресенье на "Саммите будущего". Это решение может стать поворотным моментом на пути к глобальному регулированию искусственного интеллекта и обеспечению его безопасного и справедливого развития во благо всего человечества.
 
Источник новости
www.securitylab.ru

Похожие темы