Европа устанавливает правила развития ИИ.
Евросоюз официально ввел в действие первый в мире Закон об ИИ ( Для просмотра ссылки Войдиили Зарегистрируйся ), который призван обеспечить защиту «фундаментальных прав» граждан 27 стран блока, одновременно поощряя инвестиции и инновации в стремительно развивающейся отрасли ИИ.
AI Act Для просмотра ссылки Войдиили Зарегистрируйся в течение нескольких лет и представляет собой всеобъемлющее руководство по управлению ИИ в Европе. Закон затронет в первую очередь Для просмотра ссылки Войди или Зарегистрируйся но под его действие попадут и многие организации, даже не относящиеся к технологической сфере. Например, компании, использующие ИИ в своих операциях, тоже будут подчиняться новым правилам.
Ограничения основаны на четырех уровнях риска, причем подавляющее большинство ИИ-систем попадает в категорию минимальный риск, таких как системы рекомендаций контента или фильтры спама.
Для каждого уровня риска закон об ИИ ЕС устанавливает свои требования:
или Зарегистрируйся соблюдать AI Act и тесно сотрудничать с новым Офисом ИИ по мере внедрения закона.
Закону об ИИ ещё предстоит пройти долгий путь, прежде чем большинство положений вступят в силу — это произойдет не ранее 2026 года. Ограничения для генеративных систем ИИ начнут действовать через 12 месяцев после вступления закона в силу, а системы, уже доступные на рынке, получат переходный период в 36 месяцев для приведения своих систем в соответствие.
Компании, нарушившие закон об ИИ ЕС, могут быть оштрафованы на сумму до 35 миллионов евро или 7% от их мирового годового дохода, в зависимости от того, какая сумма будет больше. Это выше, чем штрафы, предусмотренные GDPR, что подчеркивает серьёзность намерений ЕС в регулировании ИИ.
Евросоюз официально ввел в действие первый в мире Закон об ИИ ( Для просмотра ссылки Войди
AI Act Для просмотра ссылки Войди
Ограничения основаны на четырех уровнях риска, причем подавляющее большинство ИИ-систем попадает в категорию минимальный риск, таких как системы рекомендаций контента или фильтры спама.
Для каждого уровня риска закон об ИИ ЕС устанавливает свои требования:
- Неприемлемый риск:
- Эти приложения полностью запрещены. Примеры включают системы социального рейтинга граждан, прогнозирующую полицию и технологии распознавания эмоций на рабочих местах или в школах.
- Высокий риск:
- Требования: <ul type="square">
- Адекватная оценка и минимизация рисков.
- Использование высококачественных обучающих данных для минимизации предвзятости.
- Рутинное ведение логов активности.
- Обязательное предоставление подробной документации о моделях властям для оценки их соответствия требованиям.
- Примеры включают автономные транспортные средства, медицинские устройства, системы принятия решений по кредитам, образовательные системы оценки и системы удаленной биометрической идентификации.
- Ограниченный риск:
- Требования: <ul type="square">
- Прозрачность использования ИИ. Например, чат-боты должны уведомлять пользователей о том, что они взаимодействуют с ИИ.
- Примеры включают чат-ботов и системы, использующие ИИ для оценки сотрудников в процессе найма.
- Минимальный риск:
- Требования: <ul type="square">
- Основные требования безопасности и ответственности, без необходимости специальных мер.
- Примеры включают приложения, использующие фильтры спама, системы рекомендаций контента, видеоигры с элементами ИИ и программы для помощи в прогнозировании погоды.
Закону об ИИ ещё предстоит пройти долгий путь, прежде чем большинство положений вступят в силу — это произойдет не ранее 2026 года. Ограничения для генеративных систем ИИ начнут действовать через 12 месяцев после вступления закона в силу, а системы, уже доступные на рынке, получат переходный период в 36 месяцев для приведения своих систем в соответствие.
Компании, нарушившие закон об ИИ ЕС, могут быть оштрафованы на сумму до 35 миллионов евро или 7% от их мирового годового дохода, в зависимости от того, какая сумма будет больше. Это выше, чем штрафы, предусмотренные GDPR, что подчеркивает серьёзность намерений ЕС в регулировании ИИ.
- Источник новости
- www.securitylab.ru