Чем это опасно для общества?
Новое исследование, проведённое специалистами Австралийского национального университета (ANU), обнаружило, что лица белых людей, созданные искусственным интеллектом (ИИ), выглядят более реалистично, чем настоящие человеческие лица. Это открытие поднимает вопросы о расовых предубеждениях и рисках распространения дезинформации в технологиях ИИ.
В ходе исследования больше участников считали белые лица, созданные ИИ, настоящими людьми, в отличие от лиц людей с другим цветом кожи. По словам доктора Эми Доуэл, старшего автора исследования, причина этого заключается в том, что алгоритмы ИИ непропорционально часто обучаются на данных белых лиц.
Такая "гиперреалистичность" ИИ может иметь серьёзные последствия, особенно для людей с другим цветом кожи, усиливая расовые предубеждения в Интернете. Проблема уже заметна в текущих технологиях ИИ, используемых для создания профессиональных портретов, когда ИИ изменяет цвет кожи и глаз темнокожих людей на светлые.
Исследователи также обнаружили, что люди часто не осознают, что их обманывают лица, созданные ИИ. Люди, которые считают сгенерированные лица настоящими, часто уверены в своих суждениях, не зная, что они ошибаются. Оказалось, что есть физические различия между лицами, созданными ИИ, и настоящими человеческими лицами, но люди истолковывают их неверно. Например, белые ИИ-лица часто более пропорциональны, что воспринимается как признак человечности.
Исследователи предупреждают, что такая тенденция может способствовать распространению дезинформации и краже личности. Они призывают к большей прозрачности в технологиях ИИ, чтобы исследователи и общественность могли выявлять проблемы на ранних стадиях. Важную роль может сыграть и повышение общественного осведомления, поскольку люди больше не способны распознавать лица, созданные ИИ. Обучение людей осознанию реализма ИИ-лиц может помочь обществу критически относиться к изображениям, которые они видят в сети.
Результаты исследования опубликованы в журнале Для просмотра ссылки Войдиили Зарегистрируйся , принадлежащем Ассоциации психологических наук.
Новое исследование, проведённое специалистами Австралийского национального университета (ANU), обнаружило, что лица белых людей, созданные искусственным интеллектом (ИИ), выглядят более реалистично, чем настоящие человеческие лица. Это открытие поднимает вопросы о расовых предубеждениях и рисках распространения дезинформации в технологиях ИИ.
В ходе исследования больше участников считали белые лица, созданные ИИ, настоящими людьми, в отличие от лиц людей с другим цветом кожи. По словам доктора Эми Доуэл, старшего автора исследования, причина этого заключается в том, что алгоритмы ИИ непропорционально часто обучаются на данных белых лиц.
Такая "гиперреалистичность" ИИ может иметь серьёзные последствия, особенно для людей с другим цветом кожи, усиливая расовые предубеждения в Интернете. Проблема уже заметна в текущих технологиях ИИ, используемых для создания профессиональных портретов, когда ИИ изменяет цвет кожи и глаз темнокожих людей на светлые.
Исследователи также обнаружили, что люди часто не осознают, что их обманывают лица, созданные ИИ. Люди, которые считают сгенерированные лица настоящими, часто уверены в своих суждениях, не зная, что они ошибаются. Оказалось, что есть физические различия между лицами, созданными ИИ, и настоящими человеческими лицами, но люди истолковывают их неверно. Например, белые ИИ-лица часто более пропорциональны, что воспринимается как признак человечности.
Исследователи предупреждают, что такая тенденция может способствовать распространению дезинформации и краже личности. Они призывают к большей прозрачности в технологиях ИИ, чтобы исследователи и общественность могли выявлять проблемы на ранних стадиях. Важную роль может сыграть и повышение общественного осведомления, поскольку люди больше не способны распознавать лица, созданные ИИ. Обучение людей осознанию реализма ИИ-лиц может помочь обществу критически относиться к изображениям, которые они видят в сети.
Результаты исследования опубликованы в журнале Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru