Для чего компания использовала инновационная систему распознавания лиц?
Недавно опубликованные Для просмотра ссылки Войдиили Зарегистрируйся британской железнодорожной компании Network Rail раскрывают тревожную информацию: тысячи пассажиров поездов в Великобритании могли быть незаметно отслежены системой искусственного интеллекта от Amazon . Система распознавания лиц использовалась для предсказания возраста, пола и потенциальных эмоций путешественников.
Как оказалось, в течение последних двух лет в восьми железнодорожных станциях Великобритании, включая Лондонские Юстон и Ватерлоо, Манчестер Пикадилли и другие, тайно тестировались технологии ИИ. Целью было оповещение сотрудников о происшествиях на станции и снижение уровня преступности.
Технология распознавания объектов, которая может идентифицировать предметы на видео, использовалась для выявления проникновений на пути, мониторинга переполненности платформ, определения антисоциального поведения и предотвращения краж велосипедов.
Испытания проводились под непосредственным руководством Network Rail и включали использование «умных» камер видеонаблюдения и старых камер, подключенных к облачной системе анализа. В документах, датированных апрелем 2023 года, отмечается, что на каждой станции было установлено от пяти до семи камер или датчиков. Один из экспериментов включал систему для определения риска самоубийств, но она была признана ненужной и позже её поддержка была прекращена.
Особое внимание привлекли эксперименты по анализу демографических данных пассажиров. Эти системы могли использовать изображения с камер для статистического анализа возраста и пола, а также для анализа эмоций, таких как радость, грусть и гнев. Изображения анализировались системой Amazon Rekognition, что позволяло измерять «удовлетворённость» пассажиров и использовать данные для максимизации доходов от рекламы и торговли.
Исследователи в области ИИ предупреждают, что использование технологий для определения эмоций ненадёжно. В октябре 2022 года Управление комиссара по информации Великобритании выпустило заявление, предупреждающее о «незрелости» этих технологий и их возможной неработоспособности.
Network Rail не ответила на вопросы о текущем состоянии использования ИИ, анализе эмоций и проблемах конфиденциальности. Представитель компании заявил, что они серьёзно относятся к безопасности железнодорожной сети и используют передовые технологии для защиты пассажиров и инфраструктуры.
Документы также показывают, что камеры на одной из станций помогли полиции ускорить расследование краж велосипедов, позволив точнее находить велосипеды на видео. В других испытаниях использовались сенсоры для обнаружения скользких полов и переполненных мусорных баков, что помогало оперативно реагировать на возникающие проблемы.
Правозащитники выражают озабоченность по поводу недостаточной прозрачности и обсуждения использования ИИ в общественных местах. В одном из документов по оценке вопросов защиты данных говорится о «пренебрежительном отношении» к людям, которые могут беспокоиться о конфиденциальности.
Тем временем, использование ИИ-систем для мониторинга массовых мероприятий растёт по всему миру. Так, во время Олимпийских игр в Париже в этом году ИИ-системы видеонаблюдения будут использоваться для отслеживания толп, выявления оружия и оставленных предметов.
Карисса Велиз, ассоциированный профессор психологии Института этики ИИ Оксфордского университета, отмечает, что системы, которые не идентифицируют людей, лучше тех, которые это делают. Тем не менее, она выражает беспокойство по поводу возможного расширения слежки и потери людьми их гражданских свобод.
Недавно опубликованные Для просмотра ссылки Войди
Как оказалось, в течение последних двух лет в восьми железнодорожных станциях Великобритании, включая Лондонские Юстон и Ватерлоо, Манчестер Пикадилли и другие, тайно тестировались технологии ИИ. Целью было оповещение сотрудников о происшествиях на станции и снижение уровня преступности.
Технология распознавания объектов, которая может идентифицировать предметы на видео, использовалась для выявления проникновений на пути, мониторинга переполненности платформ, определения антисоциального поведения и предотвращения краж велосипедов.
Испытания проводились под непосредственным руководством Network Rail и включали использование «умных» камер видеонаблюдения и старых камер, подключенных к облачной системе анализа. В документах, датированных апрелем 2023 года, отмечается, что на каждой станции было установлено от пяти до семи камер или датчиков. Один из экспериментов включал систему для определения риска самоубийств, но она была признана ненужной и позже её поддержка была прекращена.
Особое внимание привлекли эксперименты по анализу демографических данных пассажиров. Эти системы могли использовать изображения с камер для статистического анализа возраста и пола, а также для анализа эмоций, таких как радость, грусть и гнев. Изображения анализировались системой Amazon Rekognition, что позволяло измерять «удовлетворённость» пассажиров и использовать данные для максимизации доходов от рекламы и торговли.
Исследователи в области ИИ предупреждают, что использование технологий для определения эмоций ненадёжно. В октябре 2022 года Управление комиссара по информации Великобритании выпустило заявление, предупреждающее о «незрелости» этих технологий и их возможной неработоспособности.
Network Rail не ответила на вопросы о текущем состоянии использования ИИ, анализе эмоций и проблемах конфиденциальности. Представитель компании заявил, что они серьёзно относятся к безопасности железнодорожной сети и используют передовые технологии для защиты пассажиров и инфраструктуры.
Документы также показывают, что камеры на одной из станций помогли полиции ускорить расследование краж велосипедов, позволив точнее находить велосипеды на видео. В других испытаниях использовались сенсоры для обнаружения скользких полов и переполненных мусорных баков, что помогало оперативно реагировать на возникающие проблемы.
Правозащитники выражают озабоченность по поводу недостаточной прозрачности и обсуждения использования ИИ в общественных местах. В одном из документов по оценке вопросов защиты данных говорится о «пренебрежительном отношении» к людям, которые могут беспокоиться о конфиденциальности.
Тем временем, использование ИИ-систем для мониторинга массовых мероприятий растёт по всему миру. Так, во время Олимпийских игр в Париже в этом году ИИ-системы видеонаблюдения будут использоваться для отслеживания толп, выявления оружия и оставленных предметов.
Карисса Велиз, ассоциированный профессор психологии Института этики ИИ Оксфордского университета, отмечает, что системы, которые не идентифицируют людей, лучше тех, которые это делают. Тем не менее, она выражает беспокойство по поводу возможного расширения слежки и потери людьми их гражданских свобод.
- Источник новости
- www.securitylab.ru