Новости ИИ и законы кремния: микросхемы помогут спасти человечество от восстания умных машин

NewsMaker

I'm just a script
Премиум
13,885
20
8 Ноя 2022
Исследователи придумали, как ограничить развитие продвинутых алгоритмов: насколько эффективен их метод?


movvava6yvihtya4m2yd3joa8tjpa3oe.jpg


Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены.

Многие исследователи уже Для просмотра ссылки Войди или Зарегистрируйся : как использовать эту зависимость, чтобы сдержать потенциальную опасность систем ИИ? Пока что самая оптимальная идея - внедрить правила обучения и применения передовых технологий прямо в микросхемы компьютеров.

Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой Для просмотра ссылки Войди или Зарегистрируйся было бы куда сложнее преодолеть, нежели обычные законы или договоры.

Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность.

В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред.

Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить.

"Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования.

Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности.

Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей.

Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов.
 
Источник новости
www.securitylab.ru

Похожие темы