32 из 33 сенаторов поддержали инициативу, несмотря на её спорный характер.
В штате Калифорния, США, сейчас активно обсуждается «Акт о безопасных и надёжных инновациях для передовых моделей искусственного интеллекта». Законопроект под кодовым номером SB-1047, о котором Для просмотра ссылки Войдиили Зарегистрируйся в начале июля, направлен на предотвращение потенциальных угроз, связанных с ИИ.
По состоянию на конец июля есть Для просмотра ссылки Войдиили Зарегистрируйся что законопроект, по итогу, всё-таки будет принят, так как он уже прошёл Сенат штата с поддержкой в 32 из 33 голосов и вскоре будет рассматриваться Ассамблеей.
Законопроект требует, чтобы компании, разрабатывающие крупные модели ИИ с затратами на обучение от 100 миллионов долларов, внедряли специальные процедуры для предотвращения и реагирования на «инциденты безопасности». Под инцидентами понимаются действия ИИ, которые могут привести к «массовым жертвам или ущербу от 500 миллионов долларов», включая создание оружия массового поражения и кибератак.
Согласно законопроекту, авторы больших языковых моделей не понесут ответственности за вред, причинённый распространением публично доступной информации. Основное внимание уделено ИИ-системам, способным автономно генерировать новые угрозы безопасности без значительного вмешательства человека.
В числе сторонников законопроекта — ведущие учёные в области ИИ, включая Джеффри Хинтона и Йошуа Бенджио. Они считают, что подобное регулирование необходимо для предотвращения катастрофических последствий от использования передовых ИИ-систем. Бенджио отмечает, что системы ИИ могут представлять значительные риски для демократии и общественной безопасности, поэтому их необходимо тщательно тестировать и обеспечивать надлежащие меры безопасности.
Тем не менее, у законопроекта уже появились и свои критики. Так, например, техническая журналистка и исследовательница Для просмотра ссылки Войдиили Зарегистрируйся утверждает, что законопроект основывается на преувеличенных страхах перед будущими системами ИИ. Вайсс-Блатт считает, что подобные инициативы могут замедлить инновации и помешать развитию открытого кода ИИ. «Если здесь и есть стремление к власти, то это не у систем ИИ, а у тех, кто предсказывает апокалипсис», — поясняет Вайсс-Блатт.
Многие эксперты считают, что регулирование должно фокусироваться на конкретных вредоносных применениях ИИ, а не на технологиях в целом. Эндрю Эн, основатель Google Brain, предложил альтернативные подходы, такие как запрет на создание дипфейков без согласия и стандартизацию методов идентификации сгенерированного контента.
С учётом того, что федеральные усилия по регулированию ИИ в США зашли в тупик, инициативы на уровне штатов, такие как SB-1047, приобретают особую значимость. То, как Калифорния справится с этим вопросом, может стать прецедентом для будущего регулирования ИИ не только в штате, но и по всей территории США. А там постепенно подтянутся и другие государства.
В штате Калифорния, США, сейчас активно обсуждается «Акт о безопасных и надёжных инновациях для передовых моделей искусственного интеллекта». Законопроект под кодовым номером SB-1047, о котором Для просмотра ссылки Войди
По состоянию на конец июля есть Для просмотра ссылки Войди
Законопроект требует, чтобы компании, разрабатывающие крупные модели ИИ с затратами на обучение от 100 миллионов долларов, внедряли специальные процедуры для предотвращения и реагирования на «инциденты безопасности». Под инцидентами понимаются действия ИИ, которые могут привести к «массовым жертвам или ущербу от 500 миллионов долларов», включая создание оружия массового поражения и кибератак.
Согласно законопроекту, авторы больших языковых моделей не понесут ответственности за вред, причинённый распространением публично доступной информации. Основное внимание уделено ИИ-системам, способным автономно генерировать новые угрозы безопасности без значительного вмешательства человека.
В числе сторонников законопроекта — ведущие учёные в области ИИ, включая Джеффри Хинтона и Йошуа Бенджио. Они считают, что подобное регулирование необходимо для предотвращения катастрофических последствий от использования передовых ИИ-систем. Бенджио отмечает, что системы ИИ могут представлять значительные риски для демократии и общественной безопасности, поэтому их необходимо тщательно тестировать и обеспечивать надлежащие меры безопасности.
Тем не менее, у законопроекта уже появились и свои критики. Так, например, техническая журналистка и исследовательница Для просмотра ссылки Войди
Многие эксперты считают, что регулирование должно фокусироваться на конкретных вредоносных применениях ИИ, а не на технологиях в целом. Эндрю Эн, основатель Google Brain, предложил альтернативные подходы, такие как запрет на создание дипфейков без согласия и стандартизацию методов идентификации сгенерированного контента.
С учётом того, что федеральные усилия по регулированию ИИ в США зашли в тупик, инициативы на уровне штатов, такие как SB-1047, приобретают особую значимость. То, как Калифорния справится с этим вопросом, может стать прецедентом для будущего регулирования ИИ не только в штате, но и по всей территории США. А там постепенно подтянутся и другие государства.
- Источник новости
- www.securitylab.ru