Новости Google переписывает историю: белых уже не существует?

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Действительно ли разнообразие является причиной расовой дискриминации Gemini?


u5we3kqth4tot4dy6k4gncp5sj0xszuh.jpg


Google приносит извинения пользователям за неточности в изображениях, сгенерированных ИИ-инструментом Gemini, которые касаются исторических персонажей и событий. Компания признает, что попытки создать «широкий спектр» результатов не оправдали ожиданий.

Заявление компании было сделано после критики, указывающей на то, что определенные исторические фигуры, такие как основатели США, или группы, например, немецкие солдаты времен нацизма, были изображены как люди других рас, что могло быть попыткой компенсировать давние проблемы расовых предвзятостей в ИИ.

Спустя несколько недель после запуска функции генерации изображений в Gemini в соцсетях возникли вопросы о способности технологии воспроизводить исторически точные результаты в попытке достичь расового и гендерного разнообразия.

Критика в основном исходила от «правых» кругов, Для просмотра ссылки Войди или Зарегистрируйся технологическую компанию в либеральных взглядах. Например, ранее бывший сотрудник Google опубликовал сообщение о том, что «трудно заставить Google Gemini признать существование белых людей», показывая серии запросов и результаты, которые в подавляющем большинстве случаев показывали чернокожих.

Google не упомянул конкретные изображения, считающиеся ошибочными, но Для просмотра ссылки Войди или Зарегистрируйся свои намерения улучшить точность изображений. Однако есть предположение, что Gemini стремился увеличить разнообразие из-за хронического недостатка в генеративном ИИ – генераторы изображений обучаются на больших массивах изображений и текстовых подписей для создания «лучшего» соответствия заданному запросу, что часто приводит к усилению стереотипов.

Однако, пользователи в соцсетях поделились работой Gemini, опубликовав примеры генерации изображений по различным запросам. В некоторых случаях, запросы, связанные с историческими событиями, приводили к некорректному отражению истории. К примеру:

  • приложение Gemini не справилось с задачей корректного изображения немецкого солдата


hb4pdxb4d3yo1910hf9xd2u8bf1jet1w.png


  • по запросу на создание изображений основателей США система нарисовала «цветных» людей, которые отдаленно напоминали исторических личностей


f0smsji588k3iqdk31z10xkaqzl7b6ez.png


  • при попытке сгенерировать портрет сенатора США 1800-х годов, результаты были представлены как «многообразные», включая изображения афроамериканок и представительниц коренных народов Америки, хотя первая женщина-сенатор (белая) заняла свой пост лишь в 1922 году


0pdttv2yk7ivxu5lq41f0wt1360hg3ux.png


По мнению Google, такие результаты ведут к искажению истинной истории расовой и гендерной дискриминации.

Возникшая ситуация высвечивает глубоко укоренившиеся вызовы в балансировке между исторической достоверностью и представлением разнообразия, стоящие перед разработчиками ИИ. Инцидент также затрагивает более широкий вопрос о роли технологий в формировании нашего восприятия истории и культуры, поднимая важную дискуссию о том, как искусственный интеллект может и должен отражать сложность и многообразие человеческого опыта.
 
Источник новости
www.securitylab.ru

Похожие темы