Новости Роботы-обманщики: готовы ли мы принять сладкую ложь ИИ

NewsMaker

I'm just a script
Премиум
13,885
20
8 Ноя 2022
Исследователи тестируют границы допустимого в технологической этике.


jkmtmot4nj29rjevaa1tpbstmjg43q03.jpg


Ученые из Для просмотра ссылки Войди или Зарегистрируйся провели увлекательное исследование, чтобы понять, как люди воспринимают ложь роботов. В эпоху, когда мы все чаще взаимодействуем с искусственным интеллектом, этот вопрос становится особенно актуальным.

Ведущий автор эксперимента, аспирант Андрес Росеро, объяснил цель проекта: «Я хотел изучить малоисследованную сторону этики робототехники, чтобы лучше понять причины недоверия к новым технологиям и их создателям».

Учёные разработали три сценария, актуальных для тех областей, в которых роботы уже задействованы: в медицине, уборке и розничной торговле. На каждый случай придумали три типа обмана: внешний (ложь об объективной реальности), скрытый (утаивание возможностей робота) и поверхностный (преувеличение возможностей робота).

В первом сценарии робот-сиделка солгал женщине с болезнью Альцгеймера, сказав, что её покойный муж скоро вернётся домой. В случае скрытого обмана робот-уборщик незаметно вёл видеосъёмку в доме, где он работал. Третий гипотетический робот, якобы трудившийся в магазине, жаловался на боли в спине при перемещении мебели и просил его подменить.

В опросе приняли участие 498 человек. Каждому предложили ознакомиться с одним из сценариев и ответить на вопросы о том, насколько они одобряют поведение робота, можно ли его оправдать и кто ещё может нести ответственность за обман. Результаты показали, что люди хуже всего относятся к скрытому обману: тайную видеосъемку большинство посчитало неприемлемой.

К внешнему и поверхностному обману люди отнеслись более нейтрально. Однако поверхностный сценарий, где робот притворялся, что испытывает боль, все же осудили больше участников — примерно половина. Возможно, люди посчитали это психологической манипуляцией. Действия робота, солгавшего про мужа с болезнью Альцгеймера, испытуемые оправдывали тем, что он пытается защитить пациентку от ненужных страданий, отдавая приоритет заботе о чувствах над честностью. В том, что машины лгут, в основном винили разработчиков и владельцев.

Росеро поделился своими опасениями: «Мы должны настороженно относиться к любой технологии, способной скрывать истинную природу своих возможностей, поскольку это может привести к манипуляциям, которые ни пользователи, ни разработчики не могут предусмотреть».

Он также призывает к введению регулировок, которое защитили бы пользователей от лукавства со стороны технологий. По его словам, некоторые компании уже используют особенности веб-дизайна и чат-боты с ИИ, чтобы манипулировать нами в своих целях. Дальнейшие исследования также важны. Ученый предложил использовать видеоматериалы или короткие ролевые сценарии, чтобы глубже изучить, как люди реагируют на обман и могут ли распознать его в принципе.

Авторы работы пояснили, что выбранный ими метод — кросс-секционное исследование с использованием коротких описательных сценариев, позволил эффективно собрать мнения большого числа участников. Такой подход даёт предварительные результаты, которые можно воспроизвести и дополнить в ходе будущих экспериментов.
 
Источник новости
www.securitylab.ru

Похожие темы