Новости Оборотные штрафы и запреты: чем OpenAI рискует, работая в Европе

NewsMaker

I'm just a script
Премиум
12,454
18
8 Ноя 2022
ЕС ставит под сомнение законность обработки данных ChatGPT.


fhydytuj80ag0ntlx9wpgd5t3vb43ubu.jpg


Европейский совет по защите данных (EDPB), более года изучавший, как правила защиты данных Евросоюза применяются к популярному чат-боту ChatGPT , Для просмотра ссылки Войди или Зарегистрируйся предварительные выводы расследования.

Регуляторы все еще не определились с ключевыми юридическими аспектами – законность и справедливость обработки данных OpenAI . Вопрос имеет критическое значение, так как штрафы за подтвержденные нарушения могут достигать 4% от глобального годового оборота компании.

Надзорные органы могут приказывать прекратить обработку данных, если она не соответствует требованиям. Теоретически, OpenAI сталкивается с серьезным регуляторным риском в регионе, когда специальные законы для ИИ все еще разрабатываются.

Без четких указаний со стороны европейских регуляторов по защите данных о том, как текущие законы применяются к ChatGPT, OpenAI, вероятно, будет продолжать свою деятельность без изменений, несмотря на растущее число жалоб на нарушение GDPR . Например, в Польше расследование началось после жалобы на то, что чат-бот придумал информацию об одном человеке и отказался исправить ошибки. Подобная жалоба Для просмотра ссылки Войди или Зарегистрируйся и в Австрии.

Согласно GDPR, обработка персональных данных допустима только при наличии законного основания. Однако в случае с OpenAI большинство оснований неприменимы. Итальянский орган по защите данных уже указал, что Для просмотра ссылки Войди или Зарегистрируйся людей для обучения своих моделей, оставив лишь два возможных законных основания: согласие пользователей или законные интересы.

После вмешательства Италии, OpenAI перешла к утверждению, что у нее есть законные интересы для обработки персональных данных, используемых для обучения моделей. Однако в январе итальянский орган обнаружил нарушение GDPR со стороны OpenAI, хотя детали пока не разглашаются.

В отчете рабочей группы обсуждаются этапы обработки данных, включая сбор данных для обучения, предварительную обработку, само обучение, запросы пользователей и ответы ChatGPT. Три первых этапа несут особые риски для фундаментальных прав людей.

Рабочая группа рекомендует применять «адекватные меры безопасности», такие как технические меры и ограничение сбора данных, чтобы минимизировать влияние на частную жизнь. Также предлагается удалять или анонимизировать персональные данные, собранные через веб-скрейпинг, до этапа обучения. OpenAI должна четко информировать пользователей о том, что их запросы могут использоваться для обучения.

Без четких рекомендаций от регуляторов, как улучшить возможности пользователей по реализации своих прав на данные, ситуация остается неопределенной. Рабочая группа лишь общими словами рекомендует OpenAI применять «адекватные меры», чтобы соответствовать требованиям GDPR.

Рабочая группа была создана в апреле 2023 года после вмешательства итальянского регулятора, чтобы координировать применение правил защиты данных к новым технологиям. Несмотря на независимость регуляторов, видна некоторая осторожность в их действиях. Например, польский регулятор в интервью местным СМИ намекнул, что его расследование в отношении OpenAI будет ждать завершения работы рабочей группы. В то время как представитель EDPB отметил важную роль группы в содействии сотрудничеству между регуляторами.

OpenAI открыла представительство в Ирландии, чтобы воспользоваться механизмом, который позволяет сосредоточить рассмотрение жалоб на нарушение GDP в одном регуляторе. Ирландский регулятор славится дружелюбным отношением к крупным технологическим компаниям, что может сыграть на руку OpenAI.

Пока не ясно, как быстро и эффективно регуляторы будут действовать в отношении ChatGPT. На фоне множественных жалоб и медленной реакции надзорных органов, будущее OpenAI в Европе остается неопределенным. OpenAI пока не дала комментариев на запрос по поводу предварительного отчета рабочей группы EDPB.
 
Источник новости
www.securitylab.ru

Похожие темы