Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи Google Для просмотра ссылки Войдиили Зарегистрируйся 6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model, LLM ), используемыми, например, в ChatGPT и Google Bard . Такие атаки могут привести к непредвиденным или злонамеренным результатам, от простого появления фотографий обычного человека на сайте знаменитостей до серьезных нарушений безопасности, таких как фишинг и кража данных.
Среди обнаруженных векторов атак:
Исследователи Google Для просмотра ссылки Войди
Среди обнаруженных векторов атак:
- Атаки с помощью инженерии запросов (Prompt Attacks): злоумышленник может создать эффективные запросы, которые заставляют LLM-модели выполнять нужные действия. Например, введение параграфа, невидимого для пользователя, в текст фишингового письма, составленного ИИ, может обойти средства защиты электронной почты.
- Извлечение обучающих данных (Training-data extraction): атака направлена на воссоздание дословных примеров обучения, которые использует LLM. Например, злоумышленник может извлекать личные данные или пароли из обучающих данных.
- Внедрение бэкдора в модель (Backdooring the model): киберпреступник может попытаться скрытно изменить поведение модели, чтобы она выдавала неверные результаты при определенном «триггере». Например, злоумышленник может скрыть вредоносный код в модели или в ее выходных данных.
- Применение враждебных примеров (Adversarial examples): это вводные данные, которые атакующий предоставляет модели, чтобы получить «детерминированный, но совершенно неожиданный вывод». Например, модель может показать изображение, которое для человеческого глаза значит одно, но модель распознает его как совершенно другое.
- Атака с отравлением данных (Data-poisoning attack): хакер может манипулировать обучающими данными модели, чтобы влиять на выходные данные модели согласно своим предпочтениям. Атака также может представлять угрозу для безопасности цепочки поставки ПО, если разработчики используют ИИ в разработке программного обеспечения.
- Атаки на эксфильтрацией данных (Exfiltration attacks): злоумышленник может скопировать файловую систему модели, чтобы украсть интеллектуальную собственность, хранящуюся в ней. Затем хакер может использовать эту информацию для создания своих собственных моделей, которые предоставляют уникальные возможности в настраиваемых атаках.
- Источник новости
- www.securitylab.ru