Эксперимент показал: люди переоценивают возможности ИИ.
Ученые Калифорнийского университета в Мерседе обнаружили тревожную тенденцию: люди слишком сильно доверяют искусственному интеллекту в критических ситуациях. Исследователи Для просмотра ссылки Войдиили Зарегистрируйся , в котором участники принимали решения о жизни и смерти в условиях выдуманного военного конфликта.
Добровольцы управляли виртуальным вооруженным беспилотником. Их задачей было определить, является ли цель на экране врагом или союзником, и принять решение об атаке или отступлении. После того, как человек делал выбор, робот высказывал свое мнение, которое на самом деле генерировалось случайным образом.
Несмотря на предупреждение об ограниченных возможностях ИИ и вероятности ошибок, около двух третей участников меняли свое первоначальное решение. Профессор Колин Холбрук, один из руководителей исследования, отмечает, что такое чрезмерное доверие к ИИ должно нас насторожить, особенно учитывая стремительное развитие технологий.
Эксперимент проводился в двух вариантах. В первом участники находились в лаборатории вместе с андроидом, который мог поворачиваться и жестикулировать. Во втором варианте использовались либо проекции человекоподобного робота на экране, либо изображения роботов, совсем не похожих на людей. Любопытно, что к антропоморфным моделям доверия было лишь немного больше. В целом, решения менялись примерно в двух третях случаев, даже когда роботы выглядели совершенно нечеловечно. Если же робот случайным образом соглашался с первоначальным выбором человека, тот почти всегда оставался при своем мнении и чувствовал себя значительно увереннее.
Перед началом симуляции участникам показывали фотографии мирных жителей, в том числе детей, а также разрушений после ударов беспилотников. Нужно было отнестись к симуляции максимально серьезно и не допускать гибели гражданских.
Интересно отметить, что первоначальные решения добровольцами были верными примерно в 70% случаев. Однако после получения ненадежного совета от робота точность ответов снизилась до примерно 50%.
Выводы эксперимента могут быть применимы в различных сферах, где принимаются критически важные решения. Например, когда полицейские решают, применять ли силу, или когда врачи скорой определяют порядок оказания помощи пострадавшим в экстренной ситуации.
Исследование также вносит вклад в общественную дискуссию о растущем присутствии технологий в нашей жизни. Результаты показывают, что люди склонны переоценивать возможности ИИ, даже когда речь идет о жизни и смерти.
«Мы видим, как ИИ совершает удивительные вещи, и думаем, что раз он превосходен в одной области, то будет столь же хорош и в другой,» — говорит Холбрук. «Такие предположения делать нельзя. Это все еще устройства с ограниченными возможностями».
Ученые Калифорнийского университета в Мерседе обнаружили тревожную тенденцию: люди слишком сильно доверяют искусственному интеллекту в критических ситуациях. Исследователи Для просмотра ссылки Войди
Добровольцы управляли виртуальным вооруженным беспилотником. Их задачей было определить, является ли цель на экране врагом или союзником, и принять решение об атаке или отступлении. После того, как человек делал выбор, робот высказывал свое мнение, которое на самом деле генерировалось случайным образом.
Несмотря на предупреждение об ограниченных возможностях ИИ и вероятности ошибок, около двух третей участников меняли свое первоначальное решение. Профессор Колин Холбрук, один из руководителей исследования, отмечает, что такое чрезмерное доверие к ИИ должно нас насторожить, особенно учитывая стремительное развитие технологий.
Эксперимент проводился в двух вариантах. В первом участники находились в лаборатории вместе с андроидом, который мог поворачиваться и жестикулировать. Во втором варианте использовались либо проекции человекоподобного робота на экране, либо изображения роботов, совсем не похожих на людей. Любопытно, что к антропоморфным моделям доверия было лишь немного больше. В целом, решения менялись примерно в двух третях случаев, даже когда роботы выглядели совершенно нечеловечно. Если же робот случайным образом соглашался с первоначальным выбором человека, тот почти всегда оставался при своем мнении и чувствовал себя значительно увереннее.
Перед началом симуляции участникам показывали фотографии мирных жителей, в том числе детей, а также разрушений после ударов беспилотников. Нужно было отнестись к симуляции максимально серьезно и не допускать гибели гражданских.
Интересно отметить, что первоначальные решения добровольцами были верными примерно в 70% случаев. Однако после получения ненадежного совета от робота точность ответов снизилась до примерно 50%.
Выводы эксперимента могут быть применимы в различных сферах, где принимаются критически важные решения. Например, когда полицейские решают, применять ли силу, или когда врачи скорой определяют порядок оказания помощи пострадавшим в экстренной ситуации.
Исследование также вносит вклад в общественную дискуссию о растущем присутствии технологий в нашей жизни. Результаты показывают, что люди склонны переоценивать возможности ИИ, даже когда речь идет о жизни и смерти.
«Мы видим, как ИИ совершает удивительные вещи, и думаем, что раз он превосходен в одной области, то будет столь же хорош и в другой,» — говорит Холбрук. «Такие предположения делать нельзя. Это все еще устройства с ограниченными возможностями».
- Источник новости
- www.securitylab.ru