Брэндон Ковакс продемонстрирует, как создаются цифровые двойники, в реальном времени.
На предстоящей хакерской конференции DEF CON в Лас-Вегасе посетителей ждет уникальная возможность. Для просмотра ссылки Войдиили Зарегистрируйся , старший специалист из компании Bishop Fox, продемонстрирует, как легко можно создать дипфейк-видео в режиме реального времени.
Идея эксперимента родилась у Ковакса после нашумевшего случая мошенничества на 25 миллионов долларов. В феврале этого года финансист из Гонконга стал жертвой обмана, когда поверил, что общается по видеосвязи с финансовым директором своей компании из Лондона. На самом деле это был дипфейк, созданный злоумышленниками.
«Я был поражен техническими аспектами этой аферы и решил разобраться, как она работает», — поделился Ковакс в интервью The Register.
Для своего эксперимента Ковакс привлек коллегу Алете Денис, чей образ хорошо известен в сети благодаря многочисленным интервью и выступлениям на конференциях. Используя общедоступные видео и аудиозаписи с участием Денис, Ковакс создал её цифрового двойника.
Для генерации реалистичного дипфейка использовалась профессиональная камера DSLR, объектив, студийное освещение и программное обеспечение для обработки видео.
Результат оказался настолько убедительным, что даже дети Денис не заподозрили подвоха во время видеозвонка через Microsoft Teams. «Мы назвали это “тестом Тьюринга для дипфейков”», — рассказал Ковакс.
На DEF CON Ковакс привезет компактную "студию в коробке" - набор оборудования с париками, освещением и зеленым экраном. Посетители смогут лично поучаствовать в создании дипфейков.
"Я буду в реальном времени превращать людей в других персонажей, помещая их в виртуальную офисную обстановку или интерактивную среду", - рассказал Ковакс.
Однако за развлекательным фасадом кроется серьезная цель. Созданные дипфейки послужат материалом для тестирования нового инструмента, который разрабатывает агентство DARPA в рамках программы Semantic Forensics. Этот инструмент призван выявлять поддельные видео.
Вил Корви, руководитель программы DARPA, рассказал, что их платформа, которую представят на DEF CON, позволяет анализировать видео, аудио, изображения и текст на предмет манипуляций, выявляя их происхождение.
«Мы хотим помочь людям понять текущие методы такого криминалистического анализа и, в свою очередь, усовершенствовать наши инструменты», — пояснил Корви.
Ковакс отметил, что для создания дипфейков злоумышленники могут воспользоваться общедоступными инструментами. Например, DeepFaceLab для обучения моделей и создания поддельных видео, а также проект Retrieval-based Voice Conversion (RVC) с открытым исходным кодом для голосовых помощников.
На предстоящей хакерской конференции DEF CON в Лас-Вегасе посетителей ждет уникальная возможность. Для просмотра ссылки Войди
Идея эксперимента родилась у Ковакса после нашумевшего случая мошенничества на 25 миллионов долларов. В феврале этого года финансист из Гонконга стал жертвой обмана, когда поверил, что общается по видеосвязи с финансовым директором своей компании из Лондона. На самом деле это был дипфейк, созданный злоумышленниками.
«Я был поражен техническими аспектами этой аферы и решил разобраться, как она работает», — поделился Ковакс в интервью The Register.
Для своего эксперимента Ковакс привлек коллегу Алете Денис, чей образ хорошо известен в сети благодаря многочисленным интервью и выступлениям на конференциях. Используя общедоступные видео и аудиозаписи с участием Денис, Ковакс создал её цифрового двойника.
Для генерации реалистичного дипфейка использовалась профессиональная камера DSLR, объектив, студийное освещение и программное обеспечение для обработки видео.
Результат оказался настолько убедительным, что даже дети Денис не заподозрили подвоха во время видеозвонка через Microsoft Teams. «Мы назвали это “тестом Тьюринга для дипфейков”», — рассказал Ковакс.
На DEF CON Ковакс привезет компактную "студию в коробке" - набор оборудования с париками, освещением и зеленым экраном. Посетители смогут лично поучаствовать в создании дипфейков.
"Я буду в реальном времени превращать людей в других персонажей, помещая их в виртуальную офисную обстановку или интерактивную среду", - рассказал Ковакс.
Однако за развлекательным фасадом кроется серьезная цель. Созданные дипфейки послужат материалом для тестирования нового инструмента, который разрабатывает агентство DARPA в рамках программы Semantic Forensics. Этот инструмент призван выявлять поддельные видео.
Вил Корви, руководитель программы DARPA, рассказал, что их платформа, которую представят на DEF CON, позволяет анализировать видео, аудио, изображения и текст на предмет манипуляций, выявляя их происхождение.
«Мы хотим помочь людям понять текущие методы такого криминалистического анализа и, в свою очередь, усовершенствовать наши инструменты», — пояснил Корви.
Ковакс отметил, что для создания дипфейков злоумышленники могут воспользоваться общедоступными инструментами. Например, DeepFaceLab для обучения моделей и создания поддельных видео, а также проект Retrieval-based Voice Conversion (RVC) с открытым исходным кодом для голосовых помощников.
- Источник новости
- www.securitylab.ru