Главы стран «Большой семерки» (G7) согласились с необходимостью регулирования генеративного ИИ, выразив обеспокоенность «разрушительным потенциалом» технологии. Об этом пишет Для просмотра ссылки Войди
В рамках так называемого «Хиросимского процесса» власти стран намерены провести переговоры на уровне правительств. Первые результаты обсуждений планируют предоставить до конца года.
Премьер-министр Японии Фумио Кисида считает, что разработку ориентированного на человека ИИ может обеспечить безопасный трансграничный поток данных. Он пообещал финансово поддержать такие усилия.
Призыв к более строгому регулированию связан со стремительным ростом инструментов вроде ChatGPT. Опасения заключаются в способности ИИ создавать реалистичные тексты и изображения, которые злоумышленники могут использовать в кампаниях по дезинформации.
Премьер-министр Великобритании Риши Сунак намерен разработать политику для управления рисками и преимуществами ИИ. Для этого он Для просмотра ссылки Войди
Одновременно с этим Европейский Союз Для просмотра ссылки Войди
Власти Японии выступили за более мягкий подход к регулированию ИИ.
Однако, по его словам, законодательство не должно быть слишком подробным. В таком случае правила рискуют не успевать за изменениями в технологиях.«Важно, чтобы правительство приняло жесткие меры в соответствии со строгим законом для решения серьезных проблем», — сказал старший сотрудник Центра искусственного интеллекта и передовых технологий Вадхвани Хироки Хабука.
Хабука также считает, что установление международного стандарта для регулирования генеративного ИИ на данном этапе будет сложной задачей. Среди лидеров стран G7 существуют ряд разногласий в вопросах ценностей, приемлемых в обществе.
Старший научный сотрудник Джорджтаунского университета Кеко Есинаги считает необходимым привлечь к обсуждениям как можно больше стран, в том числе с низким уровнем дохода.
Напомним, в мае Сунак пообещал Для просмотра ссылки Войди
В том же месяце Альтман Для просмотра ссылки Войди
В начале мая вице-президентка США Камала Харрис Для просмотра ссылки Войди
- Источник новости
- forklog.com