Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв. Об этом пишет Для просмотра ссылки Войди
По данным Федеральной торговой комиссии США (FTC), в 2022 году вымогательство с участием самозванцев стало вторым по распространенности в стране. За указанный период власти получили более 36 000 сообщений о том, что людей обманули мошенники, выдающие себя за друзей и членов семьи.
Согласно отчету FTC, более 5100 инцидентов произошли по телефону и причинили более $11 млн убытков.
Достижения в области искусственного интеллекта предоставили мошенникам новые инструменты воспроизведения голоса. Множество дешевых онлайн-сервисов на базе ИИ могут преобразовать короткий аудиофайл в копию голоса, позволяя мошеннику заставить его «произносить» любой текст.
Эксперты заявили, что регуляторы, правоохранители и суды плохо оснащены средствами предотвращения подобного вида мошенничества. Также большинство жертв не имеет зацепок, позволяющих идентифицировать преступника.
Полиции, в свою очередь, сложно отследить звонки аферистов, а у судов мало юридических прецедентов для привлечения компаний, создающих подобные ИИ-инструменты.
Помощник директора отдела маркетинга FTC Уилл Максон заявил, что отслеживание голосовых мошенников может быть «особенно трудным». Они могут использовать телефон, находящийся в любой точке мира. Это затрудняет даже определение юрисдикции в отношении конкретного лица.«Год назад вам нужно было много аудио, чтобы клонировать голос человека. […] Теперь достаточно 30 секунд».
Максон призвал соблюдать бдительность. По его словам, в случае получения звонка о том, что близкий человек попал в беду и нуждается в деньгах, необходимо перепроверить информацию.
Напомним, в марте журналист Джозеф Кокс Для просмотра ссылки Войди
В январе стартап ElevenLabs обвинили в Для просмотра ссылки Войди
- Источник новости
- forklog.com