Гонка вооружений в борьбе с дипфейками ужесточается.
Команда ученых из Для просмотра ссылки Войдиили Зарегистрируйся разработала программу Для просмотра ссылки Войди или Зарегистрируйся , которая надежно защищает голос человека от имитации искусственным интеллектом. Эта технология особенно актуальна в наши дни, когда среди злоумышленников все более популярным инструментом становятся дипфейки — видео и аудио, в которых люди говорят то, чего на самом деле не говорили или делают то, чего никогда не сделали бы в реальности.
Одна из самых продвинутых функций систем генеративного ИИ — это способность воспроизводить человеческий голос даже на основе короткой записи. Такие подделки могут использоваться, чтобы создавать компромат на известных личностей, политиков или просто «хороших» знакомых.
Были случаи, когда люди получали телефонные звонки, в которых бот притворялся их другом или родственником. Жертву просили выслать деньги на сторонний счет якобы из-за неотложной ситуации.
Воспроизведенные голоса также помогают обходить системы безопасности, основанные на распознавании голоса. Хотя программы, определяющие подлинность речи, существовали и раньше, AntiFake стала одной из первых систем, которые препятствуют созданию подделок.
Принцип работы AntiFake заключается в незначительном искажении оригинальной звукозаписи таким образом, чтобы эти изменения были незаметны для человека, но сбивали с толку системы искусственного интеллекта, не давая им создать убедительную имитацию.
«Мы применили методы, которые раньше использовались в преступных целях, но теперь направили их на защиту пользователей», — поясняет Нинг Чжан, руководитель проекта.
«Оригинальный аудиосигнал немного искажают, достаточно, чтобы он звучал естественно для человеческого слуха, но был совершенно другим для машины». Даже если на основе записи, защищенной AntiFake, будет создана подделка, ИИ не сможет достоверно воспроизвести речь говорящего.
Проведенные тесты показали, что AntiFake справляется со своей задачей более чем в 95% случаев. Это важный шаг вперед в совершенствовании систем информационной безопасности.
Разработчики уверены, что их методы послужат надежным щитом от злоумышленников, применяющих новейшие технологии генеративного ИИ. «Сложно предугадать, как дальше будут развиваться системы синтеза речи, но я думаю, что наш подход с использованием методов противника против него самого будет эффективен и в будущем», — заключил Нинг Чжан.
Команда ученых из Для просмотра ссылки Войди
Одна из самых продвинутых функций систем генеративного ИИ — это способность воспроизводить человеческий голос даже на основе короткой записи. Такие подделки могут использоваться, чтобы создавать компромат на известных личностей, политиков или просто «хороших» знакомых.
Были случаи, когда люди получали телефонные звонки, в которых бот притворялся их другом или родственником. Жертву просили выслать деньги на сторонний счет якобы из-за неотложной ситуации.
Воспроизведенные голоса также помогают обходить системы безопасности, основанные на распознавании голоса. Хотя программы, определяющие подлинность речи, существовали и раньше, AntiFake стала одной из первых систем, которые препятствуют созданию подделок.
Принцип работы AntiFake заключается в незначительном искажении оригинальной звукозаписи таким образом, чтобы эти изменения были незаметны для человека, но сбивали с толку системы искусственного интеллекта, не давая им создать убедительную имитацию.
«Мы применили методы, которые раньше использовались в преступных целях, но теперь направили их на защиту пользователей», — поясняет Нинг Чжан, руководитель проекта.
«Оригинальный аудиосигнал немного искажают, достаточно, чтобы он звучал естественно для человеческого слуха, но был совершенно другим для машины». Даже если на основе записи, защищенной AntiFake, будет создана подделка, ИИ не сможет достоверно воспроизвести речь говорящего.
Проведенные тесты показали, что AntiFake справляется со своей задачей более чем в 95% случаев. Это важный шаг вперед в совершенствовании систем информационной безопасности.
Разработчики уверены, что их методы послужат надежным щитом от злоумышленников, применяющих новейшие технологии генеративного ИИ. «Сложно предугадать, как дальше будут развиваться системы синтеза речи, но я думаю, что наш подход с использованием методов противника против него самого будет эффективен и в будущем», — заключил Нинг Чжан.
- Источник новости
- www.securitylab.ru