Синтетические фото войны от ИИ Adobe в новостях выдают за правдивые репортажи.
Компания Adobe , известная своими продуктами для работы с графикой, также продает стоковые изображения, созданные с помощью генеративного искусственного интеллекта (ИИ). Некоторые из них, изображающие конфликт между Израилем и ХАМАСом в Газе, Для просмотра ссылки Войдиили Зарегистрируйся в новостные статьи без специальной метки, указывающей на их искусственное происхождение. В результате многие интернет-пользователи могут принять синтетические изображения за реальные.
Так, австралийский новостной сайт Для просмотра ссылки Войдиили Зарегистрируйся обнаружил, что множество интернет-статей используют снимки из раздела «Конфликт между Израилем и Палестиной, сгенерированный ИИ» и представляют их как настоящие фотографии с места событий.
Такая ситуация создает серьезный риск для распространения ложной информации и воздействия на общественное мнение. Ведь генеративный ИИ способен создавать очень реалистично выглядящие изображения, которые трудно отличить от настоящих. На Adobe Stock можно найти множество таких изображений, изображающих авиаудары, горящие машины и разрушенные здания в Газе.
Adobe заявляет, что борется с дезинформацией и работает над развитием инструментов для отслеживания подлинности контента, в том числе созданного с помощью ИИ.
Компания требует, чтобы все изображения, которые были созданы с помощью генеративного ИИ, имели специальную метку, указывающую на их искусственное происхождение. Метка должна быть видна при подаче изображения на лицензирование и продажу через библиотеку Adobe Stock. Однако при публикации в других источниках эта информация часто теряется или игнорируется.
Ряд компаний пытаются внедрить маркировку материалов, созданных ИИ, однако на практике такие системы пока не получили широкого применения. Они требуют координации многих игроков: соцсетей, СМИ, разработчиков приложений и самих создателей генеративного ИИ.
Компания Adobe , известная своими продуктами для работы с графикой, также продает стоковые изображения, созданные с помощью генеративного искусственного интеллекта (ИИ). Некоторые из них, изображающие конфликт между Израилем и ХАМАСом в Газе, Для просмотра ссылки Войди
Так, австралийский новостной сайт Для просмотра ссылки Войди
Такая ситуация создает серьезный риск для распространения ложной информации и воздействия на общественное мнение. Ведь генеративный ИИ способен создавать очень реалистично выглядящие изображения, которые трудно отличить от настоящих. На Adobe Stock можно найти множество таких изображений, изображающих авиаудары, горящие машины и разрушенные здания в Газе.
Adobe заявляет, что борется с дезинформацией и работает над развитием инструментов для отслеживания подлинности контента, в том числе созданного с помощью ИИ.
Компания требует, чтобы все изображения, которые были созданы с помощью генеративного ИИ, имели специальную метку, указывающую на их искусственное происхождение. Метка должна быть видна при подаче изображения на лицензирование и продажу через библиотеку Adobe Stock. Однако при публикации в других источниках эта информация часто теряется или игнорируется.
Ряд компаний пытаются внедрить маркировку материалов, созданных ИИ, однако на практике такие системы пока не получили широкого применения. Они требуют координации многих игроков: соцсетей, СМИ, разработчиков приложений и самих создателей генеративного ИИ.
- Источник новости
- www.securitylab.ru