Новости Как похитить ИИ-модель за пару кликов? Исследователи раскрывают уязвимости в Google Vertex AI

NewsMaker

I'm just a script
Премиум
14,097
20
8 Ноя 2022
Никто и не подозревал, что взломать популярную платформу окажется настолько просто.


0o62if9zw6zei8qlfqo95vp7kdiss9ue.jpg


Специалисты компании Palo Alto Networks Для просмотра ссылки Войди или Зарегистрируйся в платформе Vertex AI от Google , которые могли бы позволить злоумышленникам похищать ценные модели машинного обучения (ML) и большие языковые модели ( LLM ), разработанные внутри компаний. Эти уязвимости включают в себя возможность повышения привилегий и эксфильтрации данных через заражённые модели.

Первая уязвимость касалась повышения привилегий через специальные задания (Custom Jobs) в Vertex AI Pipelines. Используя эти задания, исследователи смогли получить доступ к данным, к которым не должны были иметь доступа, включая облачные хранилища и таблицы BigQuery. Злоумышленники могли бы воспользоваться этим, чтобы скачивать конфиденциальные данные и модели.

Вторая уязвимость оказалась ещё более опасной. Исследователи показали, что при загрузке заражённой модели из публичного репозитория на платформу Vertex AI, она может получить доступ ко всем другим моделям, уже развёрнутым в среде. Это позволяет злоумышленникам копировать и выкачивать адаптированные модели и настроенные слои LLM, в которых может содержаться уникальная и конфиденциальная информация.

В ходе исследования эксперты создали собственную заражённую модель и развернули её в тестовой среде Vertex AI. После этого они смогли получить доступ к сервисному аккаунту платформы и украсть другие модели, включая файлы адаптеров, используемые для настройки LLM. Эти файлы являются ключевыми элементами, содержащими весовые коэффициенты, которые могут существенно изменить поведение базовой модели.

Исследование показало, что развёртывание даже одной модели без тщательной проверки может привести к утечке интеллектуальной собственности и данных компании. Чтобы избежать подобных угроз, исследователи рекомендуют изолировать тестовые и производственные среды, а также строго контролировать доступ к развёртыванию новых моделей.

Google оперативно отреагировала на обнаруженные исследователями уязвимости, выпустив обновления и внедрив исправления, которые устранили потенциальные пути для атак. Теперь платформа Vertex AI стала значительно более защищённой, минимизируя риски несанкционированного доступа и утечки данных.

Любая уязвимая ИИ-модель может стать троянским конём, открывающим доступ ко всей инфраструктуре компании. В эпоху, когда данные — это главное оружие, даже один упущенный момент безопасности может стоить миллионов долларов. Только строгий контроль и постоянная проверка каждого этапа развёртывания способны уберечь интеллектуальные активы от утечки.
 
Источник новости
www.securitylab.ru

Похожие темы