Новости 509 обсуждений ChatGPT на теневых форумах за месяц. Что это - начало тревожного тренда?

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Злоумышленники активно экспериментируют с ИИ-инструментами в преступных целях.


khjse6bvqra1hfzrk7d39uqjesq4tl6n.jpg


Специалисты Kaspersky Digital Footprint Intelligence выпустили отчет Для просмотра ссылки Войди или Зарегистрируйся . В нем проанализированы сообщения в даркнете на тему использования злоумышленниками ChatGPT и других аналогичных решений на основе больших языковых моделей. Всего в 2023 году на теневых форумах и в специализированных Telegram-каналах было обнаружено 2890 таких постов. Пик пришёлся на апрель <span style="color: #202124; background: white;">— в этом месяце эксперты зафиксировали 509 сообщений</span>.


8svulldwvyjwgzxympiltj42a2nyjkq1.png


Обсуждения можно разделить на несколько направлений:

  1. Джейлбрейки – специальные наборы команд, которые открывают дополнительные возможности чат-ботов, в том числе для неправомерной деятельности. За год выявлено 249 предложений о продаже джейлбрейков. Как отмечают в компании, джейлбрейки могут использоваться в том числе для легитимного улучшения работы сервисов на основе языковых моделей.
    372a6qnk7iud0y5yp3q2pk85g0p1fr2p.png

  2. Использование чат-ботов для вредоносных программ – участники теневых форумов активно обменивались вариантами использования языковых моделей для усовершенствования зловредов и повышения эффективности кибератак в целом. Например, эксперты обнаружили сообщение, где рассказывалось о ПО для операторов вредоносных программ, которое использовало нейросети для обеспечения безопасности оператора и автоматического переключения используемых доменов прикрытия. В рамках другого обсуждения авторы постов предлагали ChatGPT для генерации полиморфного вредоносного кода, обнаруживать и анализировать который крайне сложно.
    vvf7xhoy9bt3d9s8itw70pe3l1n6fb7e.png

  3. Инструменты с открытым исходным кодом на основе чат-ботов, в том числе для пентеста. Злоумышленники также проявляют к ним интерес. Например, в интернете в свободном доступе есть определённая утилита с открытым исходным кодом на базе генеративной модели, которая предназначена для обфускации кода. Обфускация позволяет избегать обнаружения системами мониторинга и защитными решениями. Такие утилиты могут использовать как пентестеры, так и злоумышленники. В даркнете специалисты «Лаборатории Касперского» обнаружили пост, в котором авторы делятся этой утилитой и рассказывают, как её можно использовать для вредоносных целей.
    ksgi0dov7kbh4flj26ft3p29rwa8j0oh.png

  4. Альтернативные версии ChatGPT. На фоне популярности умных чат-ботов большой интерес вызвали и другие проекты: WormGPT, XXXGPT, FraudGPT. Это языковые модели, позиционирующиеся как альтернатива ChatGPT с дополнительным функционалом и снятыми ограничениями. Несмотря на то, что большая часть решений может быть использована правомерно, злоумышленники также могут обращаться к ним, например для написания вредоносного ПО. Однако повышенное внимание к подобным предложениям не всегда играет на руку их создателям. Так, WormGPT был закрыт в августе 2023 года из-за массовых опасений, что он может представлять угрозу. К тому же многие обнаруженные специалистами компании сайты и объявления, где предлагалось купить доступ к WormGPT, по сути, представляли собой скам. Интересно, что большое количество подобных предложений вынудили авторов проекта ещё до закрытия начать предупреждать о возможности обмана.

6tp2791sp0psjvdswts302iut2buh71v.png


Еще одну опасность как для пользователей, так и для компаний несет продажа краденых аккаунтов от платной версии ChatGPT. На приведенном примере участник форума бесплатно распространяет аккаунты, предположительно полученные из лог-файлов вредоносных программ. Данные аккаунтов собираются с зараженных устройств пользователей.


5zd8wxw2jkiaj4epi6wlsmyyepyt1mew.png


Помимо взломанных аккаунтов распространена продажа автоматически созданных учетных записей с бесплатной версией модели. Злоумышленники регистрируются на платформе с помощью автоматических средств, используя поддельные или временные данные. Подобные аккаунты имеют лимит на количество запросов к API и продаются пакетами. Это позволяет экономить время и сразу перейти на новый аккаунт, как только предыдущий перестанет работать, – например, получив бан из-за вредоносной или подозрительной активности.


cwydr4bum12j1f6c68ywqf74vw8khbq8.png


В заключение, эксперты Лаборатории Касперского подчеркивают, что, хотя многие из рассмотренных решений на данный момент не представляют серьезной угрозы, технологии развиваются стремительно. Существует реальный риск, что в скором времени языковые модели позволят осуществлять более сложные и опасные атаки.
 
Источник новости
www.securitylab.ru

Похожие темы