Новости ИИ с чистой совестью: Fairly Trained выдаст сертификаты разработчикам, уважающим авторское право

NewsMaker

I'm just a script
Премиум
13,579
20
8 Ноя 2022
Компании должны будут доказать, что обучают свои модели этично и законно.


7d8bw340mpuduki7t3zyvhnq8mkf499x.jpg


Бывший ведущий разработчик компании Stability AI, Эд Ньютон-Рекс, ушедший в отставку из-за противоречий по поводу скрейпинга контента без согласия авторов, запустил некоммерческую организацию Для просмотра ссылки Войди или Зарегистрируйся . Она будет выдавать сертификаты организациям, которые получили разрешение на использование защищенных авторским правом данных для обучения своих генеративных ИИ-моделей.

Сертификат будет присуждаться компаниям, уже получившим лицензию. Многие создатели ИИ-моделей раньше не задумывались о юридических нюансах и просто собирали данные из интернета. Конечно, авторы не согласны с такой практикой и уже подали огромное количество исков.

Проект Ньютон-Рекса поможет потребителям выбирать этичные ИИ-инструменты. Сертификат подтверждает, что модель обучалась на данных, полученных с согласия правообладателей. Его уже получили 9 разработчиков генеративных моделей.

Среди них - Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful и Tuney.

"Мы надеемся, что сертификат Fairly Trained станет знаком качества для потребителей и компаний, которые уважают авторские права ", - говорится в заявлении организации.

Однако сертификация не решает все проблемы. Вопросы компенсации владельцам контента остаются открытыми. Переговоры между компаниями и истцами по этому поводу продолжаются.

"Сертификация от Fairly Trained ориентирована на получение согласия от поставщиков для обучения ИИ. Мы убеждены, что благодаря такому согласию правообладатели всегда получают преимущества: справедливая компенсация, указание авторства в датасетах и прочее. Понятно, что у авторов могут быть разные требования к ИИ-компаниям. Но если есть согласие, появляется возможность обсудить любые дополнительные условия", - поясняет организация.

Пока компании не обязаны сообщать Fairly Trained о переобучении моделей на новых данных. Но сертификат будет отозван, если выяснится, что разработчик нарушает требования.

"Мы просим компании раскрыть источники информации и предоставлять лицензии на их использование. Если что-то неясно, задаем уточняющие вопросы. Сертифицируем только тогда, когда полностью уверены в надежности и легальности источников. Пока этого достаточно, но в будущем процесс может измениться", - отметил Ньютон-Рекс.

Для Ньютона-Рекса проблема особенно актуальна: он сам покинул компанию в прошлом году, из-за того, что не смог убедить руководство в необходимости получения лицензий.
 
Источник новости
www.securitylab.ru

Похожие темы