Последний отчёт организации призывает политиков и регуляторов не доверять технологическим компаниям касательно их заверений о безопасности ИИ.
Норвежский совет по защите прав потребителей ( Forbrukerradet ), являющийся государственным органом, на днях Для просмотра ссылки Войдиили Зарегистрируйся , в котором предупреждает о рисках генеративного искусственного интеллекта и призывает политиков и регуляторов не доверять технологическим гигантам в обеспечении должного уровня безопасности и надёжности этой технологии.
«Мы должны гарантировать, что разработка и использование генеративного ИИ будет безопасным, надёжным и справедливым. К сожалению, история показала, что мы не можем полагаться на то, что крупные технологические компании сами решат эту проблему», — заявил Финд Мирстад, директор по цифровой политике Норвежского совета по защите прав потребителей.
К призыву присоединились 14 других организаций по защите прав потребителей из Европы и США на фоне сообщений о том, что OpenAI , компания, стоящая за чат-ботом ChatGPT , активно лоббирует европейских чиновников с целью ослабить законодательный акт ЕС об ИИ.
«Очень важно, что Евросоюз сделает законодательный акт об искусственном интеллекте максимально непроницаемым для защиты потребителей от вредных применений этой технологии», — сказала Урсула Пахль, заместитель генерального директора Европейской организации потребителей. Она также добавила: «Мы призываем институты ЕС противостоять мощному лоббированию крупных технологических компаний, которые пытаются подорвать безопасность в будущем законе».
Пока законодательный акт ЕС об ИИ не вступит в силу и не будет создана международная рамка регулирования ИИ, национальные органы должны действовать и применять существующее законодательство в области защиты данных, безопасности и прав потребителей, заявили представители потребительских групп.
«Компании не могут быть освобождены от существующих регулирований ЕС, а потребители не должны вводиться в заблуждение только потому, что эта технология новая», — подчеркнула Пахль.
В вышеупомянутом отчёте подчёркиваются риски генеративного ИИ, которые, по мнению Норвежского совета, не должны быть проигнорированы. Среди них — манипуляция, предвзятость, проблемы с конфиденциальностью, влияние на труд и т.п.
Отчёт также предупреждает, что технологии искусственного интеллекта сконцентрированы в руках нескольких крупных технологических компаний, которые работаю непрозрачно и не несут должной ответственности.
Норвежская организация также призывает к усилению защиты прав потребителей и разработке «всеобъемлющей» стратегии ИИ, основанной на жёстких принципах для использования генеративного ИИ в публичном секторе.
«Данная технология не является абсолютно неконтролируемой силой. Она должна быть адаптирована и структурирована в соответствии с основными правами и ценностями общества», — подытожил Финд Мирстад.
Технологические компании постоянно соревнуются в интеграции ИИ в свои сервисы. Тем не менее, они часто высказывают свои собственные опасения по поводу работы ИИ. Так, OpenAI в своё время рекомендовала Microsoft повременить с интеграцией языковой модели GPT-4 в Bing, а Google советует своим сотрудникам не раскрывать конфиденциальную информацию чат-боту Bard , а также не использовать во внутренних проектах компании код, сгенерированный этой нейросетью.
Норвежский совет по защите прав потребителей ( Forbrukerradet ), являющийся государственным органом, на днях Для просмотра ссылки Войди
«Мы должны гарантировать, что разработка и использование генеративного ИИ будет безопасным, надёжным и справедливым. К сожалению, история показала, что мы не можем полагаться на то, что крупные технологические компании сами решат эту проблему», — заявил Финд Мирстад, директор по цифровой политике Норвежского совета по защите прав потребителей.
К призыву присоединились 14 других организаций по защите прав потребителей из Европы и США на фоне сообщений о том, что OpenAI , компания, стоящая за чат-ботом ChatGPT , активно лоббирует европейских чиновников с целью ослабить законодательный акт ЕС об ИИ.
«Очень важно, что Евросоюз сделает законодательный акт об искусственном интеллекте максимально непроницаемым для защиты потребителей от вредных применений этой технологии», — сказала Урсула Пахль, заместитель генерального директора Европейской организации потребителей. Она также добавила: «Мы призываем институты ЕС противостоять мощному лоббированию крупных технологических компаний, которые пытаются подорвать безопасность в будущем законе».
Пока законодательный акт ЕС об ИИ не вступит в силу и не будет создана международная рамка регулирования ИИ, национальные органы должны действовать и применять существующее законодательство в области защиты данных, безопасности и прав потребителей, заявили представители потребительских групп.
«Компании не могут быть освобождены от существующих регулирований ЕС, а потребители не должны вводиться в заблуждение только потому, что эта технология новая», — подчеркнула Пахль.
В вышеупомянутом отчёте подчёркиваются риски генеративного ИИ, которые, по мнению Норвежского совета, не должны быть проигнорированы. Среди них — манипуляция, предвзятость, проблемы с конфиденциальностью, влияние на труд и т.п.
Отчёт также предупреждает, что технологии искусственного интеллекта сконцентрированы в руках нескольких крупных технологических компаний, которые работаю непрозрачно и не несут должной ответственности.
Норвежская организация также призывает к усилению защиты прав потребителей и разработке «всеобъемлющей» стратегии ИИ, основанной на жёстких принципах для использования генеративного ИИ в публичном секторе.
«Данная технология не является абсолютно неконтролируемой силой. Она должна быть адаптирована и структурирована в соответствии с основными правами и ценностями общества», — подытожил Финд Мирстад.
Технологические компании постоянно соревнуются в интеграции ИИ в свои сервисы. Тем не менее, они часто высказывают свои собственные опасения по поводу работы ИИ. Так, OpenAI в своё время рекомендовала Microsoft повременить с интеграцией языковой модели GPT-4 в Bing, а Google советует своим сотрудникам не раскрывать конфиденциальную информацию чат-боту Bard , а также не использовать во внутренних проектах компании код, сгенерированный этой нейросетью.
- Источник новости
- www.securitylab.ru