Правила Евросоюза для ИИ могут серьезно затруднить работу американских компаний и разработчиков.
11 мая Европарламент Для просмотра ссылки Войдиили Зарегистрируйся (AI Act). Правила направлены на обеспечение безопасности, прозрачности и этичности ИИ в Европе. Правила предусматривают риск-ориентированный подход и устанавливают обязательства для поставщиков и пользователей ИИ в зависимости от уровня риска, который может создавать ИИ.
AI Act имеет широкую юрисдикцию и применяется не только к компаниям в ЕС, но и к организациям, которые находятся в третьих странах, если их ИИ-системы предназначены для использования в ЕС или подпадают под право ЕС по международному праву. Это означает, что американские компании и разработчики, которые предлагают свои ИИ-продукты или услуги на европейском рынке, должны соблюдать все требования акта ЕС.
Особенно серьезные последствия AI Act может иметь для американских компаний и разработчиков, которые занимаются генеративными ИИ-моделями, такими как GPT-3 от OpenAI или BERT от Google , которые используются для генерации текста, изображений, звука и других форматов. Стоит отметить, что американские компании, которые предлагают свои модели через API или по модели open source, столкнутся с большими трудностями, поскольку AI Act содержит в себе несколько запретов:
AI Act - это амбициозный и спорный законопроект, который может повлечь за собой опасные последствия для развития и использования ИИ в Европе и за ее пределами.
Закон пытается сбалансировать цели продвижения ИИ и решения рисков, связанных с применениями ИИ. Акт также может подорвать инновационный потенциал и конкурентоспособность европейского ИИ-сектора, создать барьеры для сотрудничества и обмена знаниями с американскими партнерами, а также поспособствовать развитию небезопасного ИИ. Законопроект требует дальнейшего обсуждения и уточнения перед его окончательным принятием.
11 мая Европарламент Для просмотра ссылки Войди
AI Act имеет широкую юрисдикцию и применяется не только к компаниям в ЕС, но и к организациям, которые находятся в третьих странах, если их ИИ-системы предназначены для использования в ЕС или подпадают под право ЕС по международному праву. Это означает, что американские компании и разработчики, которые предлагают свои ИИ-продукты или услуги на европейском рынке, должны соблюдать все требования акта ЕС.
Особенно серьезные последствия AI Act может иметь для американских компаний и разработчиков, которые занимаются генеративными ИИ-моделями, такими как GPT-3 от OpenAI или BERT от Google , которые используются для генерации текста, изображений, звука и других форматов. Стоит отметить, что американские компании, которые предлагают свои модели через API или по модели open source, столкнутся с большими трудностями, поскольку AI Act содержит в себе несколько запретов:
- AI Act запрещает предоставлять доступ к генеративным моделям через API, который позволяет третьим сторонам использовать модель без установки ее на своем оборудовании;
- Также запрещается распространять такие модели через открытые источники (open source), если они не прошли сертификацию в ЕС;
- Также AI Act требует раскрытия конфиденциальной технической информации о модели третьим сторонам, которые хотят получить лицензию на использование модели;
- AI Act требует пересертификации моделей в случае, если они показывают неожиданные способности или получают дополнительное обучение. Это может стать проблемой для тех моделей, которые используют технику LoRA (Learning on Random Access), которая позволяет быстро и дешево добавлять новую информацию и возможности к модели;
AI Act - это амбициозный и спорный законопроект, который может повлечь за собой опасные последствия для развития и использования ИИ в Европе и за ее пределами.
Закон пытается сбалансировать цели продвижения ИИ и решения рисков, связанных с применениями ИИ. Акт также может подорвать инновационный потенциал и конкурентоспособность европейского ИИ-сектора, создать барьеры для сотрудничества и обмена знаниями с американскими партнерами, а также поспособствовать развитию небезопасного ИИ. Законопроект требует дальнейшего обсуждения и уточнения перед его окончательным принятием.
- Источник новости
- www.securitylab.ru