Компании должны будут доказать, что обучают свои модели этично и законно.
Бывший ведущий разработчик компании Stability AI, Эд Ньютон-Рекс, ушедший в отставку из-за противоречий по поводу скрейпинга контента без согласия авторов, запустил некоммерческую организацию Для просмотра ссылки Войдиили Зарегистрируйся . Она будет выдавать сертификаты организациям, которые получили разрешение на использование защищенных авторским правом данных для обучения своих генеративных ИИ-моделей.
Сертификат будет присуждаться компаниям, уже получившим лицензию. Многие создатели ИИ-моделей раньше не задумывались о юридических нюансах и просто собирали данные из интернета. Конечно, авторы не согласны с такой практикой и уже подали огромное количество исков.
Проект Ньютон-Рекса поможет потребителям выбирать этичные ИИ-инструменты. Сертификат подтверждает, что модель обучалась на данных, полученных с согласия правообладателей. Его уже получили 9 разработчиков генеративных моделей.
Среди них - Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful и Tuney.
"Мы надеемся, что сертификат Fairly Trained станет знаком качества для потребителей и компаний, которые уважают авторские права ", - говорится в заявлении организации.
Однако сертификация не решает все проблемы. Вопросы компенсации владельцам контента остаются открытыми. Переговоры между компаниями и истцами по этому поводу продолжаются.
"Сертификация от Fairly Trained ориентирована на получение согласия от поставщиков для обучения ИИ. Мы убеждены, что благодаря такому согласию правообладатели всегда получают преимущества: справедливая компенсация, указание авторства в датасетах и прочее. Понятно, что у авторов могут быть разные требования к ИИ-компаниям. Но если есть согласие, появляется возможность обсудить любые дополнительные условия", - поясняет организация.
Пока компании не обязаны сообщать Fairly Trained о переобучении моделей на новых данных. Но сертификат будет отозван, если выяснится, что разработчик нарушает требования.
"Мы просим компании раскрыть источники информации и предоставлять лицензии на их использование. Если что-то неясно, задаем уточняющие вопросы. Сертифицируем только тогда, когда полностью уверены в надежности и легальности источников. Пока этого достаточно, но в будущем процесс может измениться", - отметил Ньютон-Рекс.
Для Ньютона-Рекса проблема особенно актуальна: он сам покинул компанию в прошлом году, из-за того, что не смог убедить руководство в необходимости получения лицензий.
Бывший ведущий разработчик компании Stability AI, Эд Ньютон-Рекс, ушедший в отставку из-за противоречий по поводу скрейпинга контента без согласия авторов, запустил некоммерческую организацию Для просмотра ссылки Войди
Сертификат будет присуждаться компаниям, уже получившим лицензию. Многие создатели ИИ-моделей раньше не задумывались о юридических нюансах и просто собирали данные из интернета. Конечно, авторы не согласны с такой практикой и уже подали огромное количество исков.
Проект Ньютон-Рекса поможет потребителям выбирать этичные ИИ-инструменты. Сертификат подтверждает, что модель обучалась на данных, полученных с согласия правообладателей. Его уже получили 9 разработчиков генеративных моделей.
Среди них - Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful и Tuney.
"Мы надеемся, что сертификат Fairly Trained станет знаком качества для потребителей и компаний, которые уважают авторские права ", - говорится в заявлении организации.
Однако сертификация не решает все проблемы. Вопросы компенсации владельцам контента остаются открытыми. Переговоры между компаниями и истцами по этому поводу продолжаются.
"Сертификация от Fairly Trained ориентирована на получение согласия от поставщиков для обучения ИИ. Мы убеждены, что благодаря такому согласию правообладатели всегда получают преимущества: справедливая компенсация, указание авторства в датасетах и прочее. Понятно, что у авторов могут быть разные требования к ИИ-компаниям. Но если есть согласие, появляется возможность обсудить любые дополнительные условия", - поясняет организация.
Пока компании не обязаны сообщать Fairly Trained о переобучении моделей на новых данных. Но сертификат будет отозван, если выяснится, что разработчик нарушает требования.
"Мы просим компании раскрыть источники информации и предоставлять лицензии на их использование. Если что-то неясно, задаем уточняющие вопросы. Сертифицируем только тогда, когда полностью уверены в надежности и легальности источников. Пока этого достаточно, но в будущем процесс может измениться", - отметил Ньютон-Рекс.
Для Ньютона-Рекса проблема особенно актуальна: он сам покинул компанию в прошлом году, из-за того, что не смог убедить руководство в необходимости получения лицензий.
- Источник новости
- www.securitylab.ru