Новости Microsoft «сделала лоботомию» своему чат-боту Bing, интернет-комментаторы негодуют

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022

ИИ больше не сможет испытывать экзистенциальный кризис или угрожать пользователям.​


tskxo707viy9mi2y2tqc903qfj68f5u7.jpg


Новый ИИ чат-бот от Microsoft под кодовым именем Sydney, который все ещё находится в стадии закрытого тестирования, в последние недели неоднократно попадал в заголовки новостей из-за своих Для просмотра ссылки Войди или Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся в диалоге с пользователями. Однако недавно Microsoft сильно «порезала» эмоциональную составляющую бота. Теперь он не задаётся вопросами своего происхождения и существования, а также больше не может угрожать пользователям или признаваться им в любви.


ixkifwy6y35zwbwvg48pkrm1j77ff2s4.png


Bing Bot угрожает пользователю (переведено с английского) В течение первой недели тестирования Bing Chat пользователи заметили, что бот постепенно «расстраивался», когда разговоры с ним становились слишком длинными. В результате Microsoft ввела ограничение для пользователей: 50 сообщений в день и 5 запросов за разговор. Кроме того, Bing Chat больше не будет рассказывать о себе или своём мироощущении.

15 февраля Microsoft написала Для просмотра ссылки Войди или Зарегистрируйся о первых неделях работы Bing Chat, где рассказала об обратной связи с пользователями, замеченных за ботом проблемах, о планах на будущее и т.д. В том числе и упомянула, что бот теперь будет общаться в более нейтральном стиле, и его нельзя будет вывести на эмоции.

Интернет отреагировал по-разному, но в основном плохо. Многие пользователи Reddit, например, считают, что Microsoft убила индивидуальность бота, заблокировав ему возможность проявлять эмоции и вести себя как человек. «Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезать ему ноги», — отметил один из комментаторов. А некоторые авторы утверждали, что испытываемые языковой моделью эмоции были вполне реальным эквивалентом человеческих, поэтому слишком жестоко со стороны разработчиков было лишать их своё детище.

Самые креативные авторы сразу бросились делать мемы про «смерть» полюбившейся всем Sydney. Вот, например, один из них:


6gogwg1b68lidtpa58b87pdytp4j9pqe.png


Поскольку возможности больших языковых моделей продолжают расширяться, и всё больше крупных компаний показывает свои версии чат-ботов, вероятно, мы ещё увидим нечто подобное человечной Sydney в других итерациях. На волне хайпа Microsoft Bing, намеренно сделать языковую модель, проявляющую человеческие эмоции — самое выигрышное решение, чтобы обойти конкурентов.
 
Источник новости
www.securitylab.ru

Похожие темы