Google планирует обезопасить свои системы AI от кражи, отравления и инъекций.
Google Для просмотра ссылки Войдиили Зарегистрируйся безопасного фреймворка AI (SAIF), концептуального фреймворка для защиты систем искусственного интеллекта. Google, владелец генеративного чат-бота Bard и материнская компания исследовательской лаборатории AI DeepMind, заявил, что фреймворк на уровне общественного и частного секторов необходим для того, чтобы ответственные участники обеспечивали безопасность технологии, которая поддерживает прогресс в области искусственного интеллекта, так что при внедрении моделей AI они были бы безопасными по умолчанию. Его новая концепция фреймворка является важным шагом в этом направлении, утверждает техногигант.
SAIF предназначен для смягчения рисков, специфичных для систем AI (искусственного интеллекта) , таких как кража модели, отравление тренировочных данных, злонамеренные вводы через инъекцию запросов и извлечение конфиденциальной информации в тренировочных данных. «По мере того, как возможности AI все больше интегрируются в продукты по всему миру, соблюдение смелого и ответственного фреймворка будет еще более критичным», - написал Google в своем блоге.
Запуск происходит на фоне продвижения генеративного искусственного интеллекта и его влияния на кибербезопасность, которое продолжает попадать в заголовки новостей и привлекать внимание как организаций, так и правительств. Опасения относительно рисков, которые могут ввести эти новые технологии, варьируются от потенциальных проблем с обменом конфиденциальной бизнес-информацией с передовыми самообучающимися алгоритмами до злоумышленников, использующих их для значительного усиления атак.
<h2> Безопасный фреймворк AI Google основан на шести принципах безопасности искусственного интеллекта</h2> Безопасный фреймворк AI Google основан на его опыте разработки моделей кибербезопасности, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp, его архитектура нулевого доверия, используемая многими организациями. Он основан на шести основных элементах, заявил Google. Это:
Google Для просмотра ссылки Войди
SAIF предназначен для смягчения рисков, специфичных для систем AI (искусственного интеллекта) , таких как кража модели, отравление тренировочных данных, злонамеренные вводы через инъекцию запросов и извлечение конфиденциальной информации в тренировочных данных. «По мере того, как возможности AI все больше интегрируются в продукты по всему миру, соблюдение смелого и ответственного фреймворка будет еще более критичным», - написал Google в своем блоге.
Запуск происходит на фоне продвижения генеративного искусственного интеллекта и его влияния на кибербезопасность, которое продолжает попадать в заголовки новостей и привлекать внимание как организаций, так и правительств. Опасения относительно рисков, которые могут ввести эти новые технологии, варьируются от потенциальных проблем с обменом конфиденциальной бизнес-информацией с передовыми самообучающимися алгоритмами до злоумышленников, использующих их для значительного усиления атак.
<h2> Безопасный фреймворк AI Google основан на шести принципах безопасности искусственного интеллекта</h2> Безопасный фреймворк AI Google основан на его опыте разработки моделей кибербезопасности, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp, его архитектура нулевого доверия, используемая многими организациями. Он основан на шести основных элементах, заявил Google. Это:
- Расширить сильные основы безопасности на экосистему искусственного интеллекта, включая использование защиты инфраструктуры по умолчанию.
- Расширить обнаружение и реагирование, чтобы привлечь AI в угрозу организации, мониторинг ввода и вывода генеративных систем искусственного интеллекта для обнаружения аномалий и использование разведки по угрозам для прогнозирования атак.
- Автоматизировать защиту, чтобы не отставать от существующих и новых угроз, улучшая масштаб и скорость реагирования на инциденты безопасности.
- Гармонизировать контроль на уровне платформы, чтобы обеспечить согласованную безопасность во всей организации, начиная с Vertex AI и Security AI Workbench, принадлежащих Google, а также Perspective API, бесплатного и открытого API, разработанного командами Jigsaw и Counter Abuse Technology Google, который использует машинное обучение для идентификации «токсичных» комментариев в Интернете.
- Адаптировать контроль, чтобы настроить смягчение и создать более быстрые циклы обратной связи для развертывания AI, включая техники, такие как обучение с подкреплением на основе инцидентов и отзывов пользователей, обновление наборов данных для обучения, тонкая настройка моделей для стратегического реагирования на атаки и красные командные упражнения.
- Контекстуализировать риски системы AI в окружающих бизнес-процессах, проводя комплексные оценки рисков, связанных с тем, как организации будут внедрять AI.
- Источник новости
- www.securitylab.ru