Великобритания бьет тревогу.
Британские официальные лица предостерегают компании от интеграции чат-ботов, работающих на базе искусственного интеллекта, поскольку исследования показали, что их можно обмануть, чтобы выполнить вредоносные действия. В двух сообщениях в блоге, опубликованных в среду, Национальный центр кибербезопасности Великобритании ( NCSC ) указал, что специалисты пока не оценили все потенциальные проблемы безопасности, связанные с алгоритмами, способными создавать человекоподобные взаимодействия – так называемыми большими языковыми моделями (LLM).
Инструменты на базе искусственного интеллекта рано начинают использоваться в качестве чат-ботов, которые, по мнению некоторых, заменят не только поиск в Интернете, но и работу по обслуживанию клиентов и звонки по продажам. NCSC предупредил о рисках, особенно если такие модели будут интегрированы в другие бизнес-процессы компании. Исследователи установили, что чат-боты можно обмануть, подав на вход вредоносные команды или обходя их встроенные механизмы защиты. Например, чат-бот, используемый банком, может быть обманут для проведения несанкционированной операции.
NCSC в одном из своих постов утверждает: "Организации, разрабатывающие услуги на базе LLM, должны проявлять осторожность, как если бы они использовали продукт или библиотеку кода на стадии бета-тестирования. Нужно подходить к LLM с такой же осмотрительностью."
Власти по всему миру борются с ростом количества программ LLM, таких как ChatGPT от OpenAI, которые компании включают в широкий спектр услуг, включая продажи и обслуживание клиентов. Влияние искусственного интеллекта на безопасность также все еще находится в центре внимания: власти США и Канады заявляют, что видели, как хакеры используют эту технологию.
Оселока Обиора, технический директор компании по кибербезопасности RiverSafe, заявил, что гонка за интеграцию искусственного интеллекта в бизнес-практику будет иметь «катастрофические последствия», если бизнес-лидеры не введут необходимые проверки.
"Прежде чем следовать последним тенденциям в ИИ, топ-менеджеры должны переоценить ситуацию, взвесить плюсы и минусы и внедрить необходимые меры киберзащиты," - заявил он.
Британские официальные лица предостерегают компании от интеграции чат-ботов, работающих на базе искусственного интеллекта, поскольку исследования показали, что их можно обмануть, чтобы выполнить вредоносные действия. В двух сообщениях в блоге, опубликованных в среду, Национальный центр кибербезопасности Великобритании ( NCSC ) указал, что специалисты пока не оценили все потенциальные проблемы безопасности, связанные с алгоритмами, способными создавать человекоподобные взаимодействия – так называемыми большими языковыми моделями (LLM).
Инструменты на базе искусственного интеллекта рано начинают использоваться в качестве чат-ботов, которые, по мнению некоторых, заменят не только поиск в Интернете, но и работу по обслуживанию клиентов и звонки по продажам. NCSC предупредил о рисках, особенно если такие модели будут интегрированы в другие бизнес-процессы компании. Исследователи установили, что чат-боты можно обмануть, подав на вход вредоносные команды или обходя их встроенные механизмы защиты. Например, чат-бот, используемый банком, может быть обманут для проведения несанкционированной операции.
NCSC в одном из своих постов утверждает: "Организации, разрабатывающие услуги на базе LLM, должны проявлять осторожность, как если бы они использовали продукт или библиотеку кода на стадии бета-тестирования. Нужно подходить к LLM с такой же осмотрительностью."
Власти по всему миру борются с ростом количества программ LLM, таких как ChatGPT от OpenAI, которые компании включают в широкий спектр услуг, включая продажи и обслуживание клиентов. Влияние искусственного интеллекта на безопасность также все еще находится в центре внимания: власти США и Канады заявляют, что видели, как хакеры используют эту технологию.
Оселока Обиора, технический директор компании по кибербезопасности RiverSafe, заявил, что гонка за интеграцию искусственного интеллекта в бизнес-практику будет иметь «катастрофические последствия», если бизнес-лидеры не введут необходимые проверки.
"Прежде чем следовать последним тенденциям в ИИ, топ-менеджеры должны переоценить ситуацию, взвесить плюсы и минусы и внедрить необходимые меры киберзащиты," - заявил он.
- Источник новости
- www.securitylab.ru