Microsoft не собирается нести ответственность за действия пользователей.
По мере того, как развиваются передовые технологии, возникают и новые правовые нюансы. В частности — вопрос защиты авторских прав на фоне внедрения генеративного ИИ. Должны ли корпорации вроде Microsoft нести юридическую ответственность, если их продукты (например, Copilot ) выдают контент, нарушающий чью-либо интеллектуальную собственность? Эта тема сейчас вызывает множество дискуссий.
Среди разработчиков ИИ бытует мнение, что их системы — всего лишь инструменты, «фиксирующие окружающий мир». Следовательно, ответственность за использование авторского материала, переработанного нейросетью, лежит на пользователях. Ведь люди сами решают, какой запрос создать и где использовать результат.
Представители Для просмотра ссылки Войдиили Зарегистрируйся , в частности, проводят аналогию: по их мнению, это как винить Apple за то, что кто-то сфотографировал чужую картину на iPhone и попытался выдать ее за свою собственную.
Дебаты разгорелись в ответ на претензии таких гигантов медиаиндустрии, как Disney. Компания негодует из-за того, что инструменты на основе генеративного ИИ применяются для создания оскорбительных или деструктивных изображений с их персонажами.
Итак, по версии команды Microsoft, они лишь предоставляют инструмент, а пользователи должны применять его в рамках закона. Представители заявляют, что предпринимают меры по предотвращению нарушений в таких моделях, как Copilot. Однако корпорация полагает, что не обязана нести ответственность за действия потребителей своей продукции.
Многие юристы с таким подходом не согласны. Ведь ИИ-модели изначально обучались и на защищенном авторским правом контенте, доступном в интернете. Должен ли быть какой-то механизм компенсации для авторов?
Пока конкретного решения нет. Но Бюро авторского права США уже запросило официальные ответы по этому поводу у Microsoft, Google , OpenAI (разработчика DALL-E ) и независимых специалистов. Результаты опроса опубликованы на портале Для просмотра ссылки Войдиили Зарегистрируйся .
Особую озабоченность ситуацией выражают представители творческих профессий — писатели, художники, журналисты. Ведь системы ИИ уже активно используют их контент для генерации нового — без каких-либо соглашений.
«Нейросети буквально воруют наши материалы, чтобы переработать их и представить в новом виде. Таким образом пользователи получают контент, а мы теряем доход от рекламы и подписок», — возмущается в своем посте на платформе Х известный журналист Для просмотра ссылки Войдиили Зарегистрируйся .
С другой стороны, сторонники ИИ указывают, что технологии по-прежнему находятся на этапе развития. Например, Partnership on AI — альянс Microsoft, Amazon и DeepMind — запустил специальную программу по изучению влияния ИИ на медиа и развлечения.
«Мы открыты для диалога и поиска решений в сфере интеллектуального права», — подчеркивает Microsoft.
Очевидно одно — с внедрением умных машин законодательство рано или поздно должно серьезно измениться. Ключевой вопрос — как защитить авторский контент и в то же время не тормозить инновации. Юристам и регуляторам предстоит непростая работа по поиску разумного баланса. И от того, насколько конструктивным будет этот процесс, зависит будущее всей индустрии ИИ.
По мере того, как развиваются передовые технологии, возникают и новые правовые нюансы. В частности — вопрос защиты авторских прав на фоне внедрения генеративного ИИ. Должны ли корпорации вроде Microsoft нести юридическую ответственность, если их продукты (например, Copilot ) выдают контент, нарушающий чью-либо интеллектуальную собственность? Эта тема сейчас вызывает множество дискуссий.
Среди разработчиков ИИ бытует мнение, что их системы — всего лишь инструменты, «фиксирующие окружающий мир». Следовательно, ответственность за использование авторского материала, переработанного нейросетью, лежит на пользователях. Ведь люди сами решают, какой запрос создать и где использовать результат.
Представители Для просмотра ссылки Войди
Дебаты разгорелись в ответ на претензии таких гигантов медиаиндустрии, как Disney. Компания негодует из-за того, что инструменты на основе генеративного ИИ применяются для создания оскорбительных или деструктивных изображений с их персонажами.
Итак, по версии команды Microsoft, они лишь предоставляют инструмент, а пользователи должны применять его в рамках закона. Представители заявляют, что предпринимают меры по предотвращению нарушений в таких моделях, как Copilot. Однако корпорация полагает, что не обязана нести ответственность за действия потребителей своей продукции.
Многие юристы с таким подходом не согласны. Ведь ИИ-модели изначально обучались и на защищенном авторским правом контенте, доступном в интернете. Должен ли быть какой-то механизм компенсации для авторов?
Пока конкретного решения нет. Но Бюро авторского права США уже запросило официальные ответы по этому поводу у Microsoft, Google , OpenAI (разработчика DALL-E ) и независимых специалистов. Результаты опроса опубликованы на портале Для просмотра ссылки Войди
Особую озабоченность ситуацией выражают представители творческих профессий — писатели, художники, журналисты. Ведь системы ИИ уже активно используют их контент для генерации нового — без каких-либо соглашений.
«Нейросети буквально воруют наши материалы, чтобы переработать их и представить в новом виде. Таким образом пользователи получают контент, а мы теряем доход от рекламы и подписок», — возмущается в своем посте на платформе Х известный журналист Для просмотра ссылки Войди
С другой стороны, сторонники ИИ указывают, что технологии по-прежнему находятся на этапе развития. Например, Partnership on AI — альянс Microsoft, Amazon и DeepMind — запустил специальную программу по изучению влияния ИИ на медиа и развлечения.
«Мы открыты для диалога и поиска решений в сфере интеллектуального права», — подчеркивает Microsoft.
Очевидно одно — с внедрением умных машин законодательство рано или поздно должно серьезно измениться. Ключевой вопрос — как защитить авторский контент и в то же время не тормозить инновации. Юристам и регуляторам предстоит непростая работа по поиску разумного баланса. И от того, насколько конструктивным будет этот процесс, зависит будущее всей индустрии ИИ.
- Источник новости
- www.securitylab.ru