Цифровые мошенники создают компрометирующие материалы о своих жертвах, а затем долго и безжалостно их шантажируют.
Термином «дипфейк» ( «deepfake» ) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. В жестоких интернет-реалиях все эти поддельные материалы могут быть использованы злоумышленниками для шантажа, дискредитации или манипуляции.
В связи с постоянным развитием нейросетей качество дипфейков становится всё лучше с каждым месяцем, а создавать их становится всё проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, ещё пять лет назад основной целевой аудиторией для создания дипфейков были популярные актёры и политики с большим числом медиаматериалов по ним в сети.
Однако сейчас технология значительно улучшилась, дипфейки можно создавать куда быстрее и реалистичнее, используя гораздо меньше исходных данных. В результате, угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.
«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, ваше лицо, вставить вас в любое видео. Этот контент может быть распространён по Интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», — сказал Фарид.
В понедельник центр по борьбе с интернет-преступностью ФБР Для просмотра ссылки Войдиили Зарегистрируйся предупреждение, в котором сообщил о многочисленных жалобах на участившуюся Для просмотра ссылки Войди или Зарегистрируйся : злоумышленники публикуют в сети правдоподобный порнографический контент, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.
Представители ФБР объяснили, что любое изображение, опубликованное в интернете, может быть потенциально использовано преступниками в своих гнусных целях, в связи с чем рекомендуется тщательно контролировать свою онлайн-активность, а также активность близких родственников, особенно детей, обсуждая с ними любые потенциальные риски.
Не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение. А если очень хочется, то нужно обязательно ограничить круг лиц, который имеет доступ к этим материалам. Также рекомендуется с повышенной бдительностью относиться к любым запросам на добавление в друзья или общение с людьми, которых вы не знаете лично.
«Будьте осторожны при общении с известными вам людьми в интернете, которые ведут себя необычно. Захваченные социальные сети могут быть легко подделаны злоумышленниками для получения доверия от друзей и знакомых жертвы для дальнейших преступных схем или действий», — предупреждает ФБР и рекомендует использовать более надёжные пароли в паре с многофакторной аутентификацией.
Стоит отдельно отметить, что в Интернете уже существуют различные инструменты для определения поддельных материалов, сгенерированных с помощью ИИ. Например, Для просмотра ссылки Войдиили Зарегистрируйся , позволяющий найти в Интернете аналогичные или оригинальные изображения, из которых был «слеплен» дипфейк, узнать о происхождении подделки, проверить подлинность или найти похожие изображения в разных контекстах.
Термином «дипфейк» ( «deepfake» ) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. В жестоких интернет-реалиях все эти поддельные материалы могут быть использованы злоумышленниками для шантажа, дискредитации или манипуляции.
В связи с постоянным развитием нейросетей качество дипфейков становится всё лучше с каждым месяцем, а создавать их становится всё проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, ещё пять лет назад основной целевой аудиторией для создания дипфейков были популярные актёры и политики с большим числом медиаматериалов по ним в сети.
Однако сейчас технология значительно улучшилась, дипфейки можно создавать куда быстрее и реалистичнее, используя гораздо меньше исходных данных. В результате, угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.
«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, ваше лицо, вставить вас в любое видео. Этот контент может быть распространён по Интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», — сказал Фарид.
В понедельник центр по борьбе с интернет-преступностью ФБР Для просмотра ссылки Войди
Представители ФБР объяснили, что любое изображение, опубликованное в интернете, может быть потенциально использовано преступниками в своих гнусных целях, в связи с чем рекомендуется тщательно контролировать свою онлайн-активность, а также активность близких родственников, особенно детей, обсуждая с ними любые потенциальные риски.
Не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение. А если очень хочется, то нужно обязательно ограничить круг лиц, который имеет доступ к этим материалам. Также рекомендуется с повышенной бдительностью относиться к любым запросам на добавление в друзья или общение с людьми, которых вы не знаете лично.
«Будьте осторожны при общении с известными вам людьми в интернете, которые ведут себя необычно. Захваченные социальные сети могут быть легко подделаны злоумышленниками для получения доверия от друзей и знакомых жертвы для дальнейших преступных схем или действий», — предупреждает ФБР и рекомендует использовать более надёжные пароли в паре с многофакторной аутентификацией.
Стоит отдельно отметить, что в Интернете уже существуют различные инструменты для определения поддельных материалов, сгенерированных с помощью ИИ. Например, Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru