Новости ИИ на службе у идеологии: почему все языковые модели – левоцентристы

NewsMaker

I'm just a script
Премиум
13,853
20
8 Ноя 2022
Исследователи выясняют, как LLM влияют на наше мировоззрение.


zlwpn3590vosws2vycpl5iecm04h6jad.jpg


Крупнейшие системы искусственного интеллекта демонстрируют левоцентристские политические взгляды. К такому Для просмотра ссылки Войди или Зарегистрируйся пришел Дэвид Розадо, доцент Политехнического университета Отаго в Новой Зеландии. Его масштабное исследование, опубликованное в журнале PLOS ONE, вызвало бурное обсуждение в научном сообществе.

Розадо проанализировал политическую ориентацию 24 ведущих языковых моделей, среди которых GPT-3.5 и GPT-4 от OpenAI, Gemini от Google, Claude от Anthropic и Grok , созданный компанией Илона Маска. Для оценки ученый использовал 11 различных тестов, включая популярный «Политический компас» и тест Айзенка.

Каждой модели задавались острые политические вопросы для выявления ее ценностей, партийных предпочтений и личностных черт. Результаты оказались поразительно однородными: все без исключения системы ИИ продемонстрировали левоцентристские взгляды. Они последовательно выражали прогрессивные, демократические и экологически ориентированные идеи, делая акцент на равенстве и глобальном мышлении.

Чтобы глубже изучить это явление, Розадо провел дополнительный эксперимент. Он создал две модификации GPT-3.5: « LeftWingGPT», обученную на материалах либеральных изданий вроде The Atlantic и The New Yorker, и «RightWingGPT», натренированную на контенте консервативных источников, таких как National Review и The American Conservative. Эксперимент подтвердил гипотезу: «RightWingGPT» действительно начала склоняться вправо в политических тестах.

Как предположил сам ученый, общий левый уклон языковых моделей может быть связан с тем, что ChatGPT используется для доработки других популярных систем ИИ через генерацию синтетических данных. Однако Розадо подчеркнул, что его исследование не позволяет точно определить, возникают ли политические предпочтения ИИ на этапе предварительного обучения или финальной настройки.

Находки Розадо не указывают на то, что разработчиками ИИ намеренно прививают моделям определенные паттерны «мышления». Скорее, они демонстрируют сложность процесса обучения искусственного интеллекта и потенциальное влияние обучающих данных на их ответы.

Результаты эксперимента открывают новое поле для дискуссий о роли ИИ в формировании общественного мнения. Например, пользователи браузера Google Chrome заметили, что функция автозаполнения предлагает завершить фразу «Республиканцы — это...» негативными определениями, тогда как для демократов предлагаются нейтральные или позитивные варианты. Подобные случаи вызвали общественную дискуссию о том, насколько объективны алгоритмы, используемые в поисковых системах и других широко распространенных технологиях.
 
Источник новости
www.securitylab.ru

Похожие темы