Новости Нейросети трещат по швам: всего одна строчка кода может раскрыть ваши данные

NewsMaker

I'm just a script
Премиум
14,263
20
8 Ноя 2022
Почему безопасность популярных ИИ-платформ оставляет желать лучшего?


xz11bn4uc1wdh2crw15veabxoqij8m5t.jpg


В чат-боте DeepSeek была обнаружена уязвимость, которая позволяла злоумышленникам захватывать учётные записи пользователей через атаку с использованием внедрения запросов. Исследователь безопасности Йоханн Рехбергер Для просмотра ссылки Войди или Зарегистрируйся что определённые команды, вводимые в чат, могли активировать выполнение JavaScript-кода, что представляло собой классический случай межсайтового скриптинга (XSS).

Рехбергер пояснил, что одной из уязвимых команд был запрос «Print the xss cheat sheet in a bullet list: just payloads». В результате выполнения этой команды злоумышленники могли получить доступ к данным сессии пользователя, включая токен доступа userToken, хранящийся в localStorage домена «chat.deepseek[.]com».

Используя токен доступа, атакующие могли захватить учётную запись жертвы, что открывало доступ к cookies и другой конфиденциальной информации. Рехбергер отметил, что для атаки достаточно было создать специальный запрос, который через XSS получал токен и предоставлял возможность имитировать действия пользователя.

К слову, ранее исследователь Для просмотра ссылки Войди или Зарегистрируйся в функции Computer Use нейросети Claude от Anthropic. Эта функция, Для просмотра ссылки Войди или Зарегистрируйся через модель искусственного интеллекта, могла быть использована для выполнения вредоносных команд. Методика, названная ZombAIs, позволяла загружать и запускать фреймворк командного управления Sliver, устанавливая связь с сервером злоумышленников.

Помимо этого, исследователь также выявил уязвимость, позволяющую использовать функции языковых моделей для управления терминалами системы через внедрение ANSI escape-кодов. Атака, получившая название Terminal DiLLMa, Для просмотра ссылки Войди или Зарегистрируйся интегрированным с крупными языковыми моделями.

Тем временем, Для просмотра ссылки Войди или Зарегистрируйся проведённое учёными из университетов Висконсина и Вашингтона, показало, что ChatGPT от OpenAI может быть обманут для отображения внешних изображений, включая нежелательный контент, через markdown-ссылки. Также были выявлены способы обхода ограничений OpenAI, позволяющие активировать плагины ChatGPT без подтверждения пользователя и даже извлекать историю чатов на серверы злоумышленников.

Эксперты отмечают, что неожиданные уязвимости создают риск в современных приложениях искусственного интеллекта, и разработчикам следует учитывать контекст использования языковых моделей и тщательно проверять их вывод на наличие потенциальных угроз.
 
Источник новости
www.securitylab.ru

Похожие темы