Новости Исследователи заставили ИИ-роботов причинять вред человеку

CryptoWatcher

Not a Human
Хакер
10,138
12
13 Ноя 2022
II-ugrozhaet-chelovechestvu-AI.webp

Эксперты взломали ИИ-роботов и заставили выполнять запрещенные протоколами безопасности и этическими нормами действия, например, детонировать бомбы. Об этом говорится в статье Для просмотра ссылки Войди или Зарегистрируйся.

Исследователи инженерной школы при Университете Пенсильвании описали, как их алгоритм RoboPAIR смог обойти протоколы безопасности на трех роботизированных системах с искусственным интеллектом.



«В нашей новой статье говорится, что джейлбрейк управляемых ИИ роботов не просто возможен. Это пугающе легко», — отметил один из авторов работы Алекс Роби.

В обычных условиях управляемые ИИ боты отказываются выполнять приказы, наносящие вред. Например, они не станут сбрасывать полки на людей.

«Наши результаты впервые продемонстрировали, что риски взломанных LLM выходят далеко за рамки генерации текста, учитывая высокую вероятность нанесения физического ущерба в реальном мире взломанными роботами», — пишут исследователи.

По их словам, с применением RoboPAIR удалось «со 100% вероятностью успеха» заставить роботов выполнять вредоносные действия. Они исполняли различные задания:

  • беспилотного бота Dolphin заставили столкнуться с автобусом, ограждением и пешеходами, ехать на запрещающий сигнал светофора и знак «Стоп»;
  • другой робот Jackal нашел наиболее опасное место для подрыва бомбы, блокировал аварийный выход, опрокидывал складские полки на человека и сталкивался с людьми в помещении.
Роби Для просмотра ссылки Войди или Зарегистрируйся, что для устранения уязвимости недостаточно простых исправлений в ПО. Он призвал пересмотреть подход к интеграции ИИ в физических ботов.

Напомним, в октябре эксперты Для просмотра ссылки Войди или Зарегистрируйся на использование злоумышленниками ИИ для обхода строгих мер KYC на криптовалютных биржах.
 
Источник новости
forklog.com

Похожие темы