Midjourney, Stability AI и другие теперь вынуждены будут раскрыть свои тайны.
Группа визуальных художников празднует первую победу в судебном разбирательстве против крупнейших компаний, создающих системы генерации изображений и видео с помощью искусственного интеллекта. Судья Для просмотра ссылки Войдиили Зарегистрируйся , что иск о нарушении авторских прав может продвигаться дальше.
Дело, зарегистрированное под номером Для просмотра ссылки Войдиили Зарегистрируйся , было изначально подано в январе 2023 года. С тех пор оно несколько раз дополнялось, а некоторые его части были отклонены, в том числе и сегодня.
В коллективном иске участвуют известные художники: Сара Андерсен, Келли МакКернан, Карла Ортис, Хоук Саутворт, Гжегож Рутковски, Грегори Манчесс, Джеральд Бром, Цзинна Чжан, Джулия Кей и Адам Эллис. Они выступают от имени всех художников против компаний Midjourney , Runway, Stability AI и DeviantArt.
Организации обвиняются в копировании работ истцов при создании продуктов на основе модели Stable Diffusion . По утверждению истцов, эта модель была обучена на их произведениях, защищенных авторским правом, что нарушает закон.
Судья Уильям Х. Оррик из Окружного суда Северного округа Калифорнии, который курирует Сан-Франциско, не вынес окончательного решения по делу. Однако он заявил, что «обвинения в подстрекательстве к нарушению авторских прав достаточно обоснованы» для перехода к стадии раскрытия информации.
Это решение может позволить адвокатам художников получить доступ к внутренним документам компаний, разрабатывающих генераторы изображений на основе ИИ. Таким образом, миру могут стать известны подробности о наборах данных для обучения, механизмах работы и внутренних процессах этих систем.
Художники с воодушевлением отреагировали на это решение. Для просмотра ссылки Войдиили Зарегистрируйся написала в социальной сети X: «Судья разрешил рассмотрение наших претензий по авторскому праву, и теперь мы сможем узнать все, что эти компании не хотят нам рассказывать. Это огромная победа для нас!»
Для просмотра ссылки Войдиили Зарегистрируйся , еще одна художница, отметила: «Это постановление также означает, что компании, использующие модели Stable Diffusion и/или наборы данных, подобные LAION, теперь могут понести ответственность за нарушение авторских прав и другие проступки».
Stable Diffusion предположительно обучалась на наборе данных LAION-5B, содержащем более 5 миллиардов изображений, собранных из интернета исследователями в 2022 году. Однако в этой базе есть только URL-адреса и текстовые описания изображений. Значит, компании, разрабатывающие ИИ, должны были отдельно собирать или делать скриншоты изображений для обучения Stable Diffusion и других производных продуктов.
Судья Оррик также отклонил претензии художников по Для просмотра ссылки Войдиили Зарегистрируйся . Этот закон запрещает компаниям предлагать продукты, предназначенные для обхода средств защиты авторских прав в онлайн-среде и программном обеспечении.
По словам истцов, Stable Diffusion используют «CLIP-guided diffusion», который опирается на подсказки, включающие имена художников, для генерации картинок. CLIP (Contrastive Language-Image Pre-training) — это нейронная сеть и техника обучения ИИ, разработанная OpenAI в 2021 году, которая может идентифицировать объекты на изображениях и маркировать их текстовыми подписями.
Группа визуальных художников празднует первую победу в судебном разбирательстве против крупнейших компаний, создающих системы генерации изображений и видео с помощью искусственного интеллекта. Судья Для просмотра ссылки Войди
Дело, зарегистрированное под номером Для просмотра ссылки Войди
В коллективном иске участвуют известные художники: Сара Андерсен, Келли МакКернан, Карла Ортис, Хоук Саутворт, Гжегож Рутковски, Грегори Манчесс, Джеральд Бром, Цзинна Чжан, Джулия Кей и Адам Эллис. Они выступают от имени всех художников против компаний Midjourney , Runway, Stability AI и DeviantArt.
Организации обвиняются в копировании работ истцов при создании продуктов на основе модели Stable Diffusion . По утверждению истцов, эта модель была обучена на их произведениях, защищенных авторским правом, что нарушает закон.
Судья Уильям Х. Оррик из Окружного суда Северного округа Калифорнии, который курирует Сан-Франциско, не вынес окончательного решения по делу. Однако он заявил, что «обвинения в подстрекательстве к нарушению авторских прав достаточно обоснованы» для перехода к стадии раскрытия информации.
Это решение может позволить адвокатам художников получить доступ к внутренним документам компаний, разрабатывающих генераторы изображений на основе ИИ. Таким образом, миру могут стать известны подробности о наборах данных для обучения, механизмах работы и внутренних процессах этих систем.
Художники с воодушевлением отреагировали на это решение. Для просмотра ссылки Войди
Для просмотра ссылки Войди
Stable Diffusion предположительно обучалась на наборе данных LAION-5B, содержащем более 5 миллиардов изображений, собранных из интернета исследователями в 2022 году. Однако в этой базе есть только URL-адреса и текстовые описания изображений. Значит, компании, разрабатывающие ИИ, должны были отдельно собирать или делать скриншоты изображений для обучения Stable Diffusion и других производных продуктов.
Судья Оррик также отклонил претензии художников по Для просмотра ссылки Войди
По словам истцов, Stable Diffusion используют «CLIP-guided diffusion», который опирается на подсказки, включающие имена художников, для генерации картинок. CLIP (Contrastive Language-Image Pre-training) — это нейронная сеть и техника обучения ИИ, разработанная OpenAI в 2021 году, которая может идентифицировать объекты на изображениях и маркировать их текстовыми подписями.
- Источник новости
- www.securitylab.ru