Исследователи придумали, как ограничить развитие продвинутых алгоритмов: насколько эффективен их метод?
Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены.
Многие исследователи уже Для просмотра ссылки Войдиили Зарегистрируйся : как использовать эту зависимость, чтобы сдержать потенциальную опасность систем ИИ? Пока что самая оптимальная идея - внедрить правила обучения и применения передовых технологий прямо в микросхемы компьютеров.
Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой Для просмотра ссылки Войдиили Зарегистрируйся было бы куда сложнее преодолеть, нежели обычные законы или договоры.
Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность.
В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред.
Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить.
"Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования.
Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности.
Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей.
Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов.
Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены.
Многие исследователи уже Для просмотра ссылки Войди
Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой Для просмотра ссылки Войди
Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность.
В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред.
Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить.
"Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования.
Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности.
Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей.
Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов.
- Источник новости
- www.securitylab.ru