Как система предсказаний преступлений угрожает правам человека?
11 мая Европарламент проголосует по поправкам к закону об искусственном интеллекте (AI Act), который должен регулировать использование ИИ в различных сферах жизни. Однако правозащитные организации призывают депутатов запретить применение ИИ для предсказательной полиции, которая может усилить дискриминацию меньшинств.
Предсказательная полиция (предсказательная полицейская деятельность, система предсказания правонарушений) — это система, которая использует ИИ для анализа больших объемов данных и выявления потенциальных правонарушителей или жертв преступлений. Такая система может включать распознавание лиц, эмоций или других биометрических признаков.
Однако такая технология вызывает много критики за то, что она часто ошибочно идентифицирует чернокожих как преступников, что может привести к усилению расизма и профилирования в полиции.
«Использование такой технологии надзора — это расистское, авторитарное и невероятно угнетающее действие. Его нормализация на общественных мероприятиях и демонстрациях даст полиции и правительствам страшную власть. Эта технология никогда не должна использоваться», - заявили в Fair Trials.
Fair Trials - одна из организаций, которые поддерживают поправку CA 11 к AI Act, которая запрещает использование предсказательной полиции во всех странах ЕС. Если эта поправка будет принята, это будет первый запрет такого рода в Европе.
По Для просмотра ссылки Войдиили Зарегистрируйся Fair Tails, полиция также следит за людьми в окрестностях с помощью систем распознавания лиц, помечая почти любое поведение как «подозрительное» и используя его как оправдание для допроса, остановки и обыска людей. Полномочия полиции по остановке и обыску населения давно критикуются в Великобритании, где они якобы используются непропорционально чаще по отношению к этническим меньшинствам.
По данным правительства Великобритании, с апреля 2020 года по март 2021 года полиция останавливала и обыскивала 52 чернокожих человек на каждые 1000 человек, в то время как для белых этот показатель составлял 7,5. Для людей смешанной расы он был равен 17,5.
Fair Trials также опасается, что применение этой технологии повлияет на другие уязвимые сообщества, например рабочий класс, в котором технология скорее всего будет использоваться. Кроме того, технология ИИ-надзора и другие автоматизированные системы полиции подрывают основные права, такие как приватность и презумпция невиновности до доказательства вины.
Согласно поправкам, которые поддерживает Fair Trials, CA 11 запретит «дискриминационную биометрическую категоризацию, предсказательную полицию, технологию распознавание эмоций, которая представляет неприемлемые риски и массовый сбор данных для биометрических баз данных.
Fair Trials говорит, что поправку поддерживают Amnesty Tech, Human Rights Watch, Совет коллегий и адвокатских палат Европы и Европейская адвокатская ассоциация. Организация также добавляет, что более 50 таких групп «по всей Европе» добиваются изменения AI Act.
11 мая Европарламент проголосует по поправкам к закону об искусственном интеллекте (AI Act), который должен регулировать использование ИИ в различных сферах жизни. Однако правозащитные организации призывают депутатов запретить применение ИИ для предсказательной полиции, которая может усилить дискриминацию меньшинств.
Предсказательная полиция (предсказательная полицейская деятельность, система предсказания правонарушений) — это система, которая использует ИИ для анализа больших объемов данных и выявления потенциальных правонарушителей или жертв преступлений. Такая система может включать распознавание лиц, эмоций или других биометрических признаков.
Однако такая технология вызывает много критики за то, что она часто ошибочно идентифицирует чернокожих как преступников, что может привести к усилению расизма и профилирования в полиции.
«Использование такой технологии надзора — это расистское, авторитарное и невероятно угнетающее действие. Его нормализация на общественных мероприятиях и демонстрациях даст полиции и правительствам страшную власть. Эта технология никогда не должна использоваться», - заявили в Fair Trials.
Fair Trials - одна из организаций, которые поддерживают поправку CA 11 к AI Act, которая запрещает использование предсказательной полиции во всех странах ЕС. Если эта поправка будет принята, это будет первый запрет такого рода в Европе.
По Для просмотра ссылки Войди
По данным правительства Великобритании, с апреля 2020 года по март 2021 года полиция останавливала и обыскивала 52 чернокожих человек на каждые 1000 человек, в то время как для белых этот показатель составлял 7,5. Для людей смешанной расы он был равен 17,5.
Fair Trials также опасается, что применение этой технологии повлияет на другие уязвимые сообщества, например рабочий класс, в котором технология скорее всего будет использоваться. Кроме того, технология ИИ-надзора и другие автоматизированные системы полиции подрывают основные права, такие как приватность и презумпция невиновности до доказательства вины.
Согласно поправкам, которые поддерживает Fair Trials, CA 11 запретит «дискриминационную биометрическую категоризацию, предсказательную полицию, технологию распознавание эмоций, которая представляет неприемлемые риски и массовый сбор данных для биометрических баз данных.
Fair Trials говорит, что поправку поддерживают Amnesty Tech, Human Rights Watch, Совет коллегий и адвокатских палат Европы и Европейская адвокатская ассоциация. Организация также добавляет, что более 50 таких групп «по всей Европе» добиваются изменения AI Act.
- Источник новости
- www.securitylab.ru