Cемь ведущих компаний в области ИИ обязались разработать систему "водяных знаков" ко всем формам контента.
Ведущие мировые компании, специализирующиеся на искусственном интеллекте, включая таких гигантов как OpenAI , Alphabet и Meta Platforms, пообещали Белому дому добровольно внедрить водяные знаки для контента, созданного ИИ, с целью повышения безопасности использования технологии.
К обязательству присоединились и другие ключевые игроки в области ИИ, в том числе Anthropic, Inflection, Amazon.com и Microsoft , являющийся партнером OpenAI. Все они подтвердили свою готовность проводить тщательное тестирование систем перед релизом, а также делиться информацией о методах снижения рисков и необходимости инвестиций в кибербезопасность.
"Мы ценим усилия президента по вовлечению технологической индустрии в разработку конкретных шагов для обеспечения большей безопасности, защищенности и социальной значимости ИИ", - отмечено в публикации Microsoft, размещенной в блоге компании в пятницу.
Генеративный AI, применяемый для создания нового контента на основе собранных данных и мимикрирующий под тексты, созданные человеком, в этом году стал настоящим сенсацией. Поэтому законодатели всего мира встали перед необходимостью выработать меры по предотвращению возможных рисков, которые может представлять эта новая технология для национальной безопасности и экономики стран.
В вопросах регулирования искусственного интеллекта США отстают от Евросоюза. В июне текущего года законодатели ЕС согласовали проект набора правил, согласно которым системы, подобные ChatGPT, должны раскрывать информацию о контенте, созданном AI, помогать различать так называемые deep-fake изображения от настоящих и обеспечивать защиту от незаконного контента.
Лидер большинства в Сенате США от Демократической партии Чак Шумер в июне призвал к разработке "всеобъемлющего законодательства", чтобы обеспечить прогресс и гарантировать безопасность использования искусственного интеллекта.
Конгресс рассматривает законопроект, который потребует от создателей политической рекламы раскрыть информацию о том, использовался ли ИИ для создания изображений или другого контента.
Президент Джо Байден, встретившийся в Белом доме с руководителями семи ключевых компаний в области AI в пятницу, также работает над разработкой указа и двухпартийного законодательства о технологии ИИ.
В рамках этой работы, семь ведущих компаний в области ИИ обязались разработать систему "водяных знаков" ко всем формам контента, от текста и изображений до аудио и видео, созданных с помощью AI. Это позволит пользователям узнавать, когда была использована данная технология.
Ожидается, что водяной знак, встроенный в контент на техническом уровне, облегчит пользователям распознавание deep-fake изображений или аудиозаписей, которые могут, например, иллюстрировать несуществующее насилие, усиливать эффект обмана или искажать изображение политика, представляя его в невыгодном свете.
Остается неясным, каким образом водяной знак будет проявляться при обмене информацией.
Компании также обязались сосредоточить свои усилия на защите конфиденциальности пользователей в процессе развития ИИ и гарантировать, что технология будет свободна от предубеждений и не будет использоваться для дискриминации уязвимых групп.
Среди других обязательств, которые взяли на себя компании, - разработка ИИ-решений для решения научных задач, включая медицинские исследования, и мер по смягчению последствий климатических изменений.
Ведущие мировые компании, специализирующиеся на искусственном интеллекте, включая таких гигантов как OpenAI , Alphabet и Meta Platforms, пообещали Белому дому добровольно внедрить водяные знаки для контента, созданного ИИ, с целью повышения безопасности использования технологии.
К обязательству присоединились и другие ключевые игроки в области ИИ, в том числе Anthropic, Inflection, Amazon.com и Microsoft , являющийся партнером OpenAI. Все они подтвердили свою готовность проводить тщательное тестирование систем перед релизом, а также делиться информацией о методах снижения рисков и необходимости инвестиций в кибербезопасность.
"Мы ценим усилия президента по вовлечению технологической индустрии в разработку конкретных шагов для обеспечения большей безопасности, защищенности и социальной значимости ИИ", - отмечено в публикации Microsoft, размещенной в блоге компании в пятницу.
Генеративный AI, применяемый для создания нового контента на основе собранных данных и мимикрирующий под тексты, созданные человеком, в этом году стал настоящим сенсацией. Поэтому законодатели всего мира встали перед необходимостью выработать меры по предотвращению возможных рисков, которые может представлять эта новая технология для национальной безопасности и экономики стран.
В вопросах регулирования искусственного интеллекта США отстают от Евросоюза. В июне текущего года законодатели ЕС согласовали проект набора правил, согласно которым системы, подобные ChatGPT, должны раскрывать информацию о контенте, созданном AI, помогать различать так называемые deep-fake изображения от настоящих и обеспечивать защиту от незаконного контента.
Лидер большинства в Сенате США от Демократической партии Чак Шумер в июне призвал к разработке "всеобъемлющего законодательства", чтобы обеспечить прогресс и гарантировать безопасность использования искусственного интеллекта.
Конгресс рассматривает законопроект, который потребует от создателей политической рекламы раскрыть информацию о том, использовался ли ИИ для создания изображений или другого контента.
Президент Джо Байден, встретившийся в Белом доме с руководителями семи ключевых компаний в области AI в пятницу, также работает над разработкой указа и двухпартийного законодательства о технологии ИИ.
В рамках этой работы, семь ведущих компаний в области ИИ обязались разработать систему "водяных знаков" ко всем формам контента, от текста и изображений до аудио и видео, созданных с помощью AI. Это позволит пользователям узнавать, когда была использована данная технология.
Ожидается, что водяной знак, встроенный в контент на техническом уровне, облегчит пользователям распознавание deep-fake изображений или аудиозаписей, которые могут, например, иллюстрировать несуществующее насилие, усиливать эффект обмана или искажать изображение политика, представляя его в невыгодном свете.
Остается неясным, каким образом водяной знак будет проявляться при обмене информацией.
Компании также обязались сосредоточить свои усилия на защите конфиденциальности пользователей в процессе развития ИИ и гарантировать, что технология будет свободна от предубеждений и не будет использоваться для дискриминации уязвимых групп.
Среди других обязательств, которые взяли на себя компании, - разработка ИИ-решений для решения научных задач, включая медицинские исследования, и мер по смягчению последствий климатических изменений.
- Источник новости
- www.securitylab.ru