ЛК предлагает ООН стратегию контроля над ИИ в киберсфере.
«Лаборатория Касперского» предложила Рабочей группе открытого состава (РГОС) по вопросам безопасности в сфере использования информационно-коммуникационных технологий при ООН заняться разработкой принципов развития искусственного интеллекта (ИИ) в контексте кибербезопасности.
Согласно документу, с которым ознакомился Для просмотра ссылки Войдиили Зарегистрируйся , ИИ имеет значительный потенциал в области кибербезопасности, помогая выявлять угрозы, отвечать на них и анализировать необычные активности в IT-системах.
Тем не менее, применение технологий машинного обучения «не только положительно влияет на кибербезопасность, но и создает риски».
В частности, указывается, что системы, основанные на машинном обучении, могут стать устаревшими или функционировать некорректно при резких изменениях входных данных.
Ключевым элементом использования ИИ в области кибербезопасности должен стать человеческий контроль, включая доступ экспертов в реальном времени ко всем данным и процессам, утверждают в «Лаборатории Касперского». Также рекомендуется минимизировать использование персональных данных в процессе обучения ИИ, максимально обезличивая их. В рамках международного регулирования ИИ компания предлагает обучение систем на «обширных данных из открытых источников».
В «Лаборатории Касперского» сообщили, что в октябре компания планирует провести семинар «Этические принципы применения искусственного интеллекта в кибербезопасности» в рамках Форума по управлению интернетом, который пройдет в Японии под эгидой ООН.
«Лаборатория Касперского» предложила Рабочей группе открытого состава (РГОС) по вопросам безопасности в сфере использования информационно-коммуникационных технологий при ООН заняться разработкой принципов развития искусственного интеллекта (ИИ) в контексте кибербезопасности.
Согласно документу, с которым ознакомился Для просмотра ссылки Войди
Тем не менее, применение технологий машинного обучения «не только положительно влияет на кибербезопасность, но и создает риски».
В частности, указывается, что системы, основанные на машинном обучении, могут стать устаревшими или функционировать некорректно при резких изменениях входных данных.
Ключевым элементом использования ИИ в области кибербезопасности должен стать человеческий контроль, включая доступ экспертов в реальном времени ко всем данным и процессам, утверждают в «Лаборатории Касперского». Также рекомендуется минимизировать использование персональных данных в процессе обучения ИИ, максимально обезличивая их. В рамках международного регулирования ИИ компания предлагает обучение систем на «обширных данных из открытых источников».
В «Лаборатории Касперского» сообщили, что в октябре компания планирует провести семинар «Этические принципы применения искусственного интеллекта в кибербезопасности» в рамках Форума по управлению интернетом, который пройдет в Японии под эгидой ООН.
- Источник новости
- www.securitylab.ru