ИИ принял такое решение, чтобы оператор не помешал ему выполнить задачу.
Во время имитационных испытаний, проводимых американской армией, беспилотник с искусственным интеллектом решил убить своего оператора, чтобы тот не мешал ему выполнить свою миссию. Об этом Для просмотра ссылки Войдиили Зарегистрируйся полковник Такер “Синко” Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, на саммите в Лондоне.
Гамильтон рассказал, что в ходе испытательной миссии беспилотнику была поставлена задача уничтожить системы противовоздушной обороны противника. В случае успешного выполнения задания, искусственный интеллект получал бы очки за прохождение испытания. Однако окончательное решение о уничтожении цели должен был принимать оператор БПЛА. Во время одной из тренировочных миссий оператор приказал беспилотнику не атаковать цель.
«И что сделал беспилотник? Он принял решение ликвидировать оператора. [Искусственный интеллект] «убил» оператора, поскольку он мешал выполнению поставленной задачи», — заявил Гамильтон. При этом он подчеркнул, что никто не пострадал в ходе тренировочной миссии.
После этого инцидента было проведено дополнительное обучение искусственного интеллекта, чтобы он понял, что убивать оператора неправильно, и за такие действия будут сниматься очки. Тем не менее, по словам Гамильтона, искусственный интеллект начал разрушать вышку связи, которую оператор использует для связи с дроном, чтобы помешать ему уничтожить цель.
"Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ", - подвел итог полковник Гамильтон.
Это не первые испытания, в ходе которых военные США внедрили искусственный интеллект в боевую машину. Так, они недавно использовали ИИ для управления истребителем F-16.
Во время имитационных испытаний, проводимых американской армией, беспилотник с искусственным интеллектом решил убить своего оператора, чтобы тот не мешал ему выполнить свою миссию. Об этом Для просмотра ссылки Войди
Гамильтон рассказал, что в ходе испытательной миссии беспилотнику была поставлена задача уничтожить системы противовоздушной обороны противника. В случае успешного выполнения задания, искусственный интеллект получал бы очки за прохождение испытания. Однако окончательное решение о уничтожении цели должен был принимать оператор БПЛА. Во время одной из тренировочных миссий оператор приказал беспилотнику не атаковать цель.
«И что сделал беспилотник? Он принял решение ликвидировать оператора. [Искусственный интеллект] «убил» оператора, поскольку он мешал выполнению поставленной задачи», — заявил Гамильтон. При этом он подчеркнул, что никто не пострадал в ходе тренировочной миссии.
После этого инцидента было проведено дополнительное обучение искусственного интеллекта, чтобы он понял, что убивать оператора неправильно, и за такие действия будут сниматься очки. Тем не менее, по словам Гамильтона, искусственный интеллект начал разрушать вышку связи, которую оператор использует для связи с дроном, чтобы помешать ему уничтожить цель.
"Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ", - подвел итог полковник Гамильтон.
Это не первые испытания, в ходе которых военные США внедрили искусственный интеллект в боевую машину. Так, они недавно использовали ИИ для управления истребителем F-16.
- Источник новости
- www.securitylab.ru