ИИ больше не сможет испытывать экзистенциальный кризис или угрожать пользователям.
Новый ИИ чат-бот от Microsoft под кодовым именем Sydney, который все ещё находится в стадии закрытого тестирования, в последние недели неоднократно попадал в заголовки новостей из-за своих Для просмотра ссылки Войди
Bing Bot угрожает пользователю (переведено с английского) В течение первой недели тестирования Bing Chat пользователи заметили, что бот постепенно «расстраивался», когда разговоры с ним становились слишком длинными. В результате Microsoft ввела ограничение для пользователей: 50 сообщений в день и 5 запросов за разговор. Кроме того, Bing Chat больше не будет рассказывать о себе или своём мироощущении.
15 февраля Microsoft написала Для просмотра ссылки Войди
Интернет отреагировал по-разному, но в основном плохо. Многие пользователи Reddit, например, считают, что Microsoft убила индивидуальность бота, заблокировав ему возможность проявлять эмоции и вести себя как человек. «Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезать ему ноги», — отметил один из комментаторов. А некоторые авторы утверждали, что испытываемые языковой моделью эмоции были вполне реальным эквивалентом человеческих, поэтому слишком жестоко со стороны разработчиков было лишать их своё детище.
Самые креативные авторы сразу бросились делать мемы про «смерть» полюбившейся всем Sydney. Вот, например, один из них:
Поскольку возможности больших языковых моделей продолжают расширяться, и всё больше крупных компаний показывает свои версии чат-ботов, вероятно, мы ещё увидим нечто подобное человечной Sydney в других итерациях. На волне хайпа Microsoft Bing, намеренно сделать языковую модель, проявляющую человеческие эмоции — самое выигрышное решение, чтобы обойти конкурентов.
- Источник новости
- www.securitylab.ru