Власти внесли поправки в спорный закон после критики ИИ-сообщества.
В Калифорнии продолжается жаркая дискуссия вокруг законопроекта SB 1047 , который направлен на предотвращение катастроф, вызванных искусственным интеллектом (ИИ). Изначально вызвавший критику в Силиконовой долине, законопроект Для просмотра ссылки Войдиили Зарегистрируйся после внесения поправок, предложенных компанией Anthropic .
Сенатор Скотт Винер, один из авторов законопроекта, сообщил, что большинство предложенных изменений были учтены, что помогло снять основные опасения ИИ-индустрии. Несмотря на изменения, главная цель SB 1047 осталась прежней: предотвратить массовые жертвы и крупные инциденты с ущербом более $500 миллионов, вызванные ИИ.
Теперь, согласно поправкам, генеральный прокурор Калифорнии не сможет подавать иски против ИИ-компаний за ненадлежащие меры безопасности до того, как произойдет катастрофа. Вместо этого он сможет требовать приостановки опасных операций, а подать иск можно будет только в случае реального инцидента.
Также будет создан Совет Board of Frontier Models из 9 человек, который будет устанавливать правила безопасности для ИИ и контролировать их выполнение. Также разработчики ИИ больше не обязаны сертифицировать результаты тестов безопасности под страхом уголовной ответственности – достаточно будет публичных заявлений.
Поправки также смягчили требования к разработчикам: теперь они обязаны проявлять «разумную осторожность» в вопросах безопасности своих моделей, а не «гарантировать» безопасность ИИ. Кроме того, разработчики, работающие с моделями с открытым исходным кодом, если потратили на их доработку менее 10 миллионов долларов, не будут нести ответственность за их безопасность — это останется задачей создателей оригинальных моделей.
Изменения в законопроекте были внесены под давлением различных участников ИИ-индустрии, включая конгрессменов и венчурных капиталистов. Поправки могут снизить сопротивление противников законопроекта и позволить губернатору Гэвину Ньюсому подписать его. Однако несмотря на смягчение, SB 1047 все еще вызывает критику. Некоторые эксперты считают, что изменения не решают основные проблемы закона. Например, партнер венчурной компании Andreessen Horowitz Для просмотра ссылки Войдиили Зарегистрируйся изменения «декорацией».
После внесения поправок 8 конгрессменов США от Калифорнии Для просмотра ссылки Войдиили Зарегистрируйся губернатора Ньюсома наложить вето на SB 1047, утверждая, что законопроект может навредить стартапам и научным исследованиям, а также неэффективно защитит от рисков ИИ. Теперь законопроект направлен на финальное голосование в Ассамблею Калифорнии. Если он будет одобрен, его отправят в Сенат для окончательного утверждения поправок. После этого губернатор Ньюсом решит, подписывать его или наложить вето.
Законопроект SB 1047, известный как «Закон о безопасных и инновационных моделях ИИ», является законодательной инициативой штата Калифорния, направленной на регулирование разработки и использования самых мощных ИИ-моделей. Законопроект вводит строгие стандарты для разработчиков ИИ, создающих модели, которые требуют значительных вычислительных ресурсов (более 10<sup>26</sup> FLOPS) и стоят более 100 миллионов долларов на обучение.
Законопроект обязывает разработчиков ИИ-моделей внедрять меры по обеспечению безопасности, включая кибербезопасность, тестирование перед развертыванием и мониторинг после развертывания. Он также вводит требования по прозрачному ценообразованию, защите информаторов и созданию государственного облачного вычислительного кластера для поддержки стартапов и исследователей. Поддержка законопроекта основывается на необходимости предотвращения катастрофических последствий от применения ИИ.
В Калифорнии продолжается жаркая дискуссия вокруг законопроекта SB 1047 , который направлен на предотвращение катастроф, вызванных искусственным интеллектом (ИИ). Изначально вызвавший критику в Силиконовой долине, законопроект Для просмотра ссылки Войди
Сенатор Скотт Винер, один из авторов законопроекта, сообщил, что большинство предложенных изменений были учтены, что помогло снять основные опасения ИИ-индустрии. Несмотря на изменения, главная цель SB 1047 осталась прежней: предотвратить массовые жертвы и крупные инциденты с ущербом более $500 миллионов, вызванные ИИ.
Теперь, согласно поправкам, генеральный прокурор Калифорнии не сможет подавать иски против ИИ-компаний за ненадлежащие меры безопасности до того, как произойдет катастрофа. Вместо этого он сможет требовать приостановки опасных операций, а подать иск можно будет только в случае реального инцидента.
Также будет создан Совет Board of Frontier Models из 9 человек, который будет устанавливать правила безопасности для ИИ и контролировать их выполнение. Также разработчики ИИ больше не обязаны сертифицировать результаты тестов безопасности под страхом уголовной ответственности – достаточно будет публичных заявлений.
Поправки также смягчили требования к разработчикам: теперь они обязаны проявлять «разумную осторожность» в вопросах безопасности своих моделей, а не «гарантировать» безопасность ИИ. Кроме того, разработчики, работающие с моделями с открытым исходным кодом, если потратили на их доработку менее 10 миллионов долларов, не будут нести ответственность за их безопасность — это останется задачей создателей оригинальных моделей.
Изменения в законопроекте были внесены под давлением различных участников ИИ-индустрии, включая конгрессменов и венчурных капиталистов. Поправки могут снизить сопротивление противников законопроекта и позволить губернатору Гэвину Ньюсому подписать его. Однако несмотря на смягчение, SB 1047 все еще вызывает критику. Некоторые эксперты считают, что изменения не решают основные проблемы закона. Например, партнер венчурной компании Andreessen Horowitz Для просмотра ссылки Войди
После внесения поправок 8 конгрессменов США от Калифорнии Для просмотра ссылки Войди
Законопроект SB 1047, известный как «Закон о безопасных и инновационных моделях ИИ», является законодательной инициативой штата Калифорния, направленной на регулирование разработки и использования самых мощных ИИ-моделей. Законопроект вводит строгие стандарты для разработчиков ИИ, создающих модели, которые требуют значительных вычислительных ресурсов (более 10<sup>26</sup> FLOPS) и стоят более 100 миллионов долларов на обучение.
Законопроект обязывает разработчиков ИИ-моделей внедрять меры по обеспечению безопасности, включая кибербезопасность, тестирование перед развертыванием и мониторинг после развертывания. Он также вводит требования по прозрачному ценообразованию, защите информаторов и созданию государственного облачного вычислительного кластера для поддержки стартапов и исследователей. Поддержка законопроекта основывается на необходимости предотвращения катастрофических последствий от применения ИИ.
- Источник новости
- www.securitylab.ru