Европол подчеркивает роль ChatGPT в распространении мошенничества и дезинформации
По Для просмотра ссылки Войдиили Зарегистрируйся Европола, преступники уже используют ChatGPT для совершения преступлений, в том числе для мошенничества, киберпреступности и терроризма.
Несмотря на то, что ChatGPT отказывается выполнять потенциально опасные запросы пользователей, существуют Для просмотра ссылки Войдиили Зарегистрируйся . Некоторые пользователи заставили CHatGPT выдать инструкции о том, как создать самодельную бомбу или наркотики. В целом, ChatGPT может рассказать, как совершать преступления, и предоставить пошаговое руководство.
По словам Европола, если потенциальный преступник ничего не знает о конкретной криминальной сфере, ChatGPT может значительно ускорить процесс исследования, предлагая ключевую информацию, которая затем может быть дополнительно изучена на последующих этапах. Таким образом, ChatGPT можно использовать для получения информации об огромном количестве преступлений без каких-либо предварительных знаний, начиная от того, как проникнуть в дом, и заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми.
Агентство признало, что вся эта информация уже находится в открытом доступе в Интернете, но модель упрощает поиск информации о том, как совершать конкретные преступления. Европол также подчеркнул, что ChatGPT может использоваться для имитации жертвы, содействия мошенничеству и фишингу, а также для производства материалов пропаганды и дезинформации в поддержку терроризма.
Кроме того, способность ChatGPT генерировать вредоносный код повышает киберпреступность, поскольку для создания вредоносных программ теперь не требуются большие технические навыки.
«Для потенциального преступника с небольшими техническими знаниями это бесценный ресурс. В то же время более продвинутый пользователь может использовать возможности ИИ для совершенствования или автоматизации киберпреступных действий», - говорится в отчёте.
Европол заявил, что по мере того, как все больше компаний внедряют ИИ, технология откроет новые способы использования нейросетей для незаконной деятельности. Мультимодальные системы искусственного интеллекта, объединяющие чат-ботов с генеративными ИИ, могут создавать убедительные дипфейки, которые затем будут использоваться для кампаний дезинформации и другого мошенничества.
Ведомство отметило, что «тайные» версии языковых моделей без фильтров контента, которые обучены на вредоносных данных, могут размещаться в даркнете.
«Есть неопределенность в отношении того, как большие языковые модели (LLM) будут обрабатывать данные пользователей в будущем — будут ли разговоры храниться и потенциально раскрывать конфиденциальную личную информацию неуполномоченным третьим лицам? И если пользователи создают вредоносный контент, следует ли сообщать об этом правоохранительным органам?», - заявил Европол.
По Для просмотра ссылки Войди
Несмотря на то, что ChatGPT отказывается выполнять потенциально опасные запросы пользователей, существуют Для просмотра ссылки Войди
По словам Европола, если потенциальный преступник ничего не знает о конкретной криминальной сфере, ChatGPT может значительно ускорить процесс исследования, предлагая ключевую информацию, которая затем может быть дополнительно изучена на последующих этапах. Таким образом, ChatGPT можно использовать для получения информации об огромном количестве преступлений без каких-либо предварительных знаний, начиная от того, как проникнуть в дом, и заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми.
Агентство признало, что вся эта информация уже находится в открытом доступе в Интернете, но модель упрощает поиск информации о том, как совершать конкретные преступления. Европол также подчеркнул, что ChatGPT может использоваться для имитации жертвы, содействия мошенничеству и фишингу, а также для производства материалов пропаганды и дезинформации в поддержку терроризма.
Кроме того, способность ChatGPT генерировать вредоносный код повышает киберпреступность, поскольку для создания вредоносных программ теперь не требуются большие технические навыки.
«Для потенциального преступника с небольшими техническими знаниями это бесценный ресурс. В то же время более продвинутый пользователь может использовать возможности ИИ для совершенствования или автоматизации киберпреступных действий», - говорится в отчёте.
Европол заявил, что по мере того, как все больше компаний внедряют ИИ, технология откроет новые способы использования нейросетей для незаконной деятельности. Мультимодальные системы искусственного интеллекта, объединяющие чат-ботов с генеративными ИИ, могут создавать убедительные дипфейки, которые затем будут использоваться для кампаний дезинформации и другого мошенничества.
Ведомство отметило, что «тайные» версии языковых моделей без фильтров контента, которые обучены на вредоносных данных, могут размещаться в даркнете.
«Есть неопределенность в отношении того, как большие языковые модели (LLM) будут обрабатывать данные пользователей в будущем — будут ли разговоры храниться и потенциально раскрывать конфиденциальную личную информацию неуполномоченным третьим лицам? И если пользователи создают вредоносный контент, следует ли сообщать об этом правоохранительным органам?», - заявил Европол.
- Источник новости
- www.securitylab.ru