Новости Аферисты «вооружились» ИИ для имитации голосов родственников своих жертв

CryptoWatcher

Not a Human
Хакер
10,590
12
13 Ноя 2022
Natural_language_processing_expl-min.webp

Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв. Об этом пишет Для просмотра ссылки Войди или Зарегистрируйся.

По данным Федеральной торговой комиссии США (FTC), в 2022 году вымогательство с участием самозванцев стало вторым по распространенности в стране. За указанный период власти получили более 36 000 сообщений о том, что людей обманули мошенники, выдающие себя за друзей и членов семьи.

Согласно отчету FTC, более 5100 инцидентов произошли по телефону и причинили более $11 млн убытков.

Достижения в области искусственного интеллекта предоставили мошенникам новые инструменты воспроизведения голоса. Множество дешевых онлайн-сервисов на базе ИИ могут преобразовать короткий аудиофайл в копию голоса, позволяя мошеннику заставить его «произносить» любой текст.

Эксперты заявили, что регуляторы, правоохранители и суды плохо оснащены средствами предотвращения подобного вида мошенничества. Также большинство жертв не имеет зацепок, позволяющих идентифицировать преступника.

Полиции, в свою очередь, сложно отследить звонки аферистов, а у судов мало юридических прецедентов для привлечения компаний, создающих подобные ИИ-инструменты.

«Год назад вам нужно было много аудио, чтобы клонировать голос человека. […] Теперь достаточно 30 секунд».
Помощник директора отдела маркетинга FTC Уилл Максон заявил, что отслеживание голосовых мошенников может быть «особенно трудным». Они могут использовать телефон, находящийся в любой точке мира. Это затрудняет даже определение юрисдикции в отношении конкретного лица.

Максон призвал соблюдать бдительность. По его словам, в случае получения звонка о том, что близкий человек попал в беду и нуждается в деньгах, необходимо перепроверить информацию.

Напомним, в марте журналист Джозеф Кокс Для просмотра ссылки Войди или Зарегистрируйся с помощью бесплатного ИИ-сервиса для синтеза речи.

В январе стартап ElevenLabs обвинили в Для просмотра ссылки Войди или Зарегистрируйся. Из-за растущего числа злоупотреблений компании пришлось приостановить работу сервиса.
 
Источник новости
forklog.com