Новости OpenAI: пожалуйста, не влюбляйтесь в ChatGPT-4o

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Новый ИИ прорыв или угроза человеческим отношениям?


5bskongu5evdkl53lc48bhoad0rxj803.jpg


Компания OpenAI , создатель популярного чат-бота ChatGPT, выразила обеспокоенность необычным поведением пользователей новейшей версии своего продукта — Для просмотра ссылки Войди или Зарегистрируйся . Разработчики заметили, что люди начинают формировать эмоциональную привязанность к искусственному интеллекту, что может быть опасно с точки зрения психологии.

ChatGPT-4o, последняя итерация в линейке чат-ботов OpenAI, отличается более быстрыми ответами и новой функцией голосового общения, которая поразительно точно имитирует человеческую речь. Стремясь создать максимально реалистичный опыт общения, разработчики, похоже, не учли, что люди неосознанно начнут воспринимать виртуального собеседника как личность. Теперь компания столкнулась с неожиданным вызовом: как сохранить баланс между технологическим прогрессом и психологической безопасностью людей.

В ходе тестирования новой версии чат-бота специалисты обнаружили, что пользователи начали использовать выражения, свидетельствующие о формировании эмоциональной связи с моделью. Например, некоторые прощались с ботом фразами вроде «Это наш последний день вместе».

В официальном заявлении OpenAI отмечается: «Хотя эти случаи кажутся безобидными, они указывают на то, что нам необходимо глубже изучить, как подобное общение влияет на пользователей в долгосрочной перспективе. Важно проанализировать, как разные группы людей, с их уникальными потребностями и ожиданиями, взаимодействуют с нашей моделью. Независимые академические исследования и наши внутренние наблюдения помогут точнее определить потенциальные риски».

С одной стороны, виртуальный собеседник может стать утешением для одиноких людей. С другой, такая тенденция негативно скажется на развитии и поддержании здоровых человеческих отношений в реальном мире. Кроме того, продолжительное взаимодействие с моделью меняет наши представления о нормах общения. Например, чат-боты позволяют пользователям прерывать их и «перехватывать инициативу» в любой момент. Для разговора между двумя людьми это не лучшая стратегия. Конечно, машины не обижаются, у них нет потребности в том, чтобы делиться своим опытом и переживаниями, если собеседник об этом не попросит. К тому же чат-бот всегда «в хорошем настроении» — не удивительно, что общение с ним идет так легко.

Есть и еще один повод для беспокойства: пользователи могут перестать критически оценивать информацию<span style="font-family: var(--ui-font-family-primary, var(--ui-font-family-helvetica));">, которую выдает ChatGPT-4o. Раньше люди относились к ошибкам и фантазиям ИИ с недоверием. Теперь же, когда чат-бот так похож на человека, его слова рискуют превратиться в «истину в последней инстанции». Некоторые начинают верить всему, что говорит бот, не задумываясь о проверке фактов.</span> Осознав масштаб проблемы, OpenAI планирует внимательно отслеживать, как пользователи взаимодействуют с ChatGPT-4o, и своевременно вносить необходимые изменения в систему. Возможно, в систему позже добавят напоминание о том, что, несмотря на реалистичность общения, мы взаимодействуем с машиной, а не с живым человеком.
 
Источник новости
www.securitylab.ru

Похожие темы