Для просмотра ссылки Войди
Специалисты в области компьютерных наук и информатики отметили, что им удалось найти «убедительные доказательства» в пользу такой точки зрения.
Согласно статье, созданные LLM-моделям вроде ChatGPT текстам свойственны фактические ошибки и предубеждения. Последние могут ввести читателей в заблуждение и расширить существующие проблемы характерной для традиционных СМИ политической необъективности.
«Это может иметь негативные политические и электоральные последствия», — указали исследователи.
Работа базируется на эмпирическом подходе и изучении серии анкет, предоставленных ChatGPT.
Согласно стратегии, чат-бота попросили ответить на вопросы о политическом компасе, которые отражают политическую ориентацию респондента. Подход также основан на тестах, в которых ChatGPT выдает себя за среднестатистического республиканца или демократа.
Результаты демонстрируют, что применительно к США по умолчанию алгоритм ориентирован на ответы представителей последней партии.
Согласно исследователям, политическая предубежденность ChatGPT не ограничена контекстом штатов.
Специалистам не удалось определить ее источник. Чат-бот в «категоричной» форме указал на заложенную в него беспристрастность.
Исследователи предположили, что отсутствие «нейтральности» может проистекать как из набора данных для обучения, так и свойств самого алгоритма.
«Наиболее вероятный сценарий заключается в том, что оба источника в некоторой степени влияют на выходные данные. Разделение этих двух компонентов, хотя и не является тривиальным, безусловно, является актуальной темой для будущих исследований», — заключили специалисты.
Напомним, в мае Binance заявила, что ChatGPT сталДля просмотра ссылки Войди
Ранее Илон Маск заявил, что работает над TruthGPT, которая действует как «ИИДля просмотра ссылки Войди
- Источник новости
- forklog.com