Новости Мошенничество с использованием ИИ: виды и способы борьбы

CryptoWatcher

Not a Human
Хакер
10,591
12
13 Ноя 2022
Turistov-predupredili-o-fishinge-s-primeneniem-II-phishing-AI-2.webp

Искусственный интеллект существенно упрощает рабочие процессы и повышает производительность. Однако он также нередко является инструментом мошенников, поскольку позволяет дешево и качественно создавать аудио, видео, сообщения, дипфейки, пишет Для просмотра ссылки Войди или Зарегистрируйся.

Рассказываем о популярных способах обмана с использованием ИИ и вариантами борьбы со злоумышленниками.

Клонирование голоса членов семьи и друзейСинтез речи существует уже несколько десятилетий, но благодаря развитию генеративного искусственного интеллекта мошенники могут создавать фейк всего лишь из нескольких секунд аудио. Голос любого человека, который публично транслировался, например в новостном репортаже или в видео на YouTube, может быть клонирован.

У мошенников есть возможность генерации убедительных и фальшивых версий друзей или близких потенциальной жертвы. Часто используется просьба о помощи, отмечает издание. Например, родитель может получить голосовое сообщение с неизвестного номера от «сына», который рассказывает о краже вещей во время путешествия и просит отправить деньги.

В январе неизвестный клонировал голос президент США Джо Байдена и осуществил серию звонков избирателям в Нью-Гемпшире, призвав бойкотировать голосование. В результате Федеральная комиссия по связям Для просмотра ссылки Войди или Зарегистрируйся назначить штраф $6 млн за фейковые звонки.

Еще один пример: в США учителя физкультуры Для просмотра ссылки Войди или Зарегистрируйся в использовании голосового дипфейка, чтобы подставить директора школы и добиться его увольнения. Однако независимые эксперты установили, что аудио было сфабриковано, поскольку имеет «ровный тон, необычно чистый фон, отсутствие последовательных звуков дыхания или пауз».

Как бороться с клонированием голоса?Технология развилась настолько, что распознать фальшивый голос крайне сложно. Иногда это не под силу даже экспертам.

Все, что происходит с неизвестного номера, адреса электронной почты или аккаунта, необходимо автоматически считать подозрительным, советует TechCrunch. Если кто-то представляется другом или родственником, стоит связаться с этим человеком по другим каналам связи.

Персонализированный фишинг и спам по электронной почтеИскусственный интеллект позволяет генерировать тексты намного быстрее и на разных языках, в том числе адаптированные для конкретного человека. Компания по безопасности SlashNext Для просмотра ссылки Войди или Зарегистрируйся, что количество фишинговых атак по электронной почте увеличилось на 856% за последний год, а с момента запуска ChatGPT в 2022 году — на 4151%.

Согласно изданию, особенно опасными являются персонализированные письма. Поскольку утечки личных данных происходят регулярно, большая их часть находится в открытом доступе. Мошенники могут использовать информацию о недавнем местоположении, покупках или привычках, а языковая модель напишет тысячи писем за считанные секунды. Журналисты приводят возможный пример такого сообщения:

«Привет, Дорис! Я из команды продвижения Etsy. На товар, которым вы недавно интересовались, скидка 50%! А доставка на ваш адрес в Беллингеме будет бесплатной, если вы воспользуетесь этой ссылкой».

Такое письмо выглядит правдоподобным, а нейросеть может создавать их в больших количествах для разных людей, говорится в статье.

Как бороться со спамом по электронной почте?Не переходить по сомнительным ссылкам и не скачивать странные файлы. Если нет стопроцентной уверенности в подлинности и личности отправителя, лучше письмо или ссылки в нем не открывать.

Атака с подменой личностиИспользуя утечки личных данных, мошенники могут входить в аккаунт на каком-либо ресурсе/бирже. Издание указывает, что нейросеть способна создать поддельную копию личности пользователя и с помощью персональной информации обратиться в службу поддержки с просьбой восстановить аккаунт.

Как правило, для восстановления доступа требуются такие данные как дата рождения, номер телефона. Иногда требуется сделать селфи, но и такая задача ИИ по силам, подчеркивает TechCrunch.

Как бороться с мошенничеством подмены личности?С помощью многофакторной аутентификации. Любая подозрительная активность по аккаунту будет транслироваться на электронную почту или прямо на телефон.

Дипфейки и шантажИИ позволяет наложить лицо любого человека на другое тело и сделать таким образом правдоподобную фотографию (или видео). Этот вид мошенничества используется для шантажа или распространения фейков.

Например, в январе сотрудник транснациональной компании в Гонконге Для просмотра ссылки Войди или Зарегистрируйся мошенникам $25 млн после созвона с «коллегами», которые оказались дипфейками. Пострадавший получил приглашение якобы от финансового директора фирмы на онлайн-видеовстречу, где планировалось обсудить некую конфиденциальную сделку.

Все присутствовавшие на созвоне «руководители компании» были дипфейк-имитацией. Они убедили сотрудника перевести $25,5 млн из средств фирмы на пять банковских счетов.

Как бороться с дипфейком и шантажом?Вместо выполнения требований шантажиста лучше обратиться в полицию и к хостингам с требованием удалить фотографии.

Напомним, в июне специалисты Elliptic Для просмотра ссылки Войди или Зарегистрируйся рост использования ИИ в криптопреступлениях.

В начале июня графический дизайнер Dogecoin под ником DogeDesigner Для просмотра ссылки Войди или Зарегистрируйся прямую трансляцию с дипфейком CEO Tesla и SpaceX Илона Маска, продвигающего криптовалютный скам.
 
Источник новости
forklog.com

Похожие темы