Заметят ли злоумышленники «невидимую» революцию в мире сгенерированных изображений?
ИИ Для просмотра ссылки Войдиили Зарегистрируйся в создании реалистичных изображений, и всё чаще Для просмотра ссылки Войди или Зарегистрируйся . Особенно критично это ощущается американцами на фоне скорых президентских выборов в 2024 году, где всего одна правдоподобная картинка может настроить избирателей против кандидата.
Технологические компании активно улучшают свои инструменты по выявлению поддельных фотографий ( deepfake ), но мало какие из них Для просмотра ссылки Войдиили Зарегистрируйся . Ситуацию, похоже, хочет исправить компания Google , которая сегодня Для просмотра ссылки Войди или Зарегистрируйся инструмент под названием «SynthID».
Вместо того, чтобы просто распознавать готовые изображения, определяя вероятность их создания искусственным интеллектом, Google предлагает весьма очевидное, но от этого не менее изящное решение.
SynthID будет встраивать в изображения цифровой водяной знак, абсолютно невидимый человеку, но легко распознаваемый ИИ. Это ключевой шаг к контролю над фейками и дезинформацией с помощью генерации изображений, считает Google.
Слайд Google: слева водяной знак присутствует, справа нет
Генераторы изображений ИИ уже несколько лет создают правдоподобные «глубокие подделки». Попытки снабдить их водяными знаками предпринимались ранее, однако прошлые итерации технологии были видимыми и легко убирались в том же фотошопе.
Сейчас акцент делается именно на том, что человек не сможет увидеть водяной знак (даже при манипуляциях с параметрами изображения), а значит и не сможет убрать его в целях распространения заведомо ложной информации. Зато специализированные сервисы будут в два щелчка определять генерацию, развеивая хитрую пелену обмана.
Интересно, что Google не раскрыла, как именно работает её технология водяных знаков. Видимо, специально, чтобы не давать злоумышленникам подсказку по удалению своих новых вотермарок с изображений. Интересно, разгадают ли хакеры шифр Google самостоятельно? Пусть даже спустя какое-то время.
Пока что новый инструмент доступен только в собственной генеративной нейросети Google под названием Imagen . Вполне вероятно, что в будущем техногигант поделится технологией с крупными игроками рынка по типу Midjourney , Stable Diffusion и DALL-E , картинки которых сейчас составляют большую часть от всего сгенерированного визуального контента в принципе.
В ином случае, последние наверняка со временем разработают свой собственный уникальный аналог данной технологии. По крайней мере, сподвижки в эту сторону наблюдаются уже давно. Microsoft даже успела создать специальную коалицию для выработки стандарта маркировки ИИ-контента.
Таким образом, внедрение невидимых водяных знаков в сгенерированные искусственным интеллектом изображения позволит эффективно выявлять поддельный контент и бороться с дезинформацией. Хотя злоумышленники и могут со временем научиться обходить эту защиту, технологические компании, скорее всего, тоже будут постоянно совершенствовать свои методы маркировки и ощутимо сдерживать потоки поддельного контента.
ИИ Для просмотра ссылки Войди
Технологические компании активно улучшают свои инструменты по выявлению поддельных фотографий ( deepfake ), но мало какие из них Для просмотра ссылки Войди
Вместо того, чтобы просто распознавать готовые изображения, определяя вероятность их создания искусственным интеллектом, Google предлагает весьма очевидное, но от этого не менее изящное решение.
SynthID будет встраивать в изображения цифровой водяной знак, абсолютно невидимый человеку, но легко распознаваемый ИИ. Это ключевой шаг к контролю над фейками и дезинформацией с помощью генерации изображений, считает Google.
Слайд Google: слева водяной знак присутствует, справа нет
Генераторы изображений ИИ уже несколько лет создают правдоподобные «глубокие подделки». Попытки снабдить их водяными знаками предпринимались ранее, однако прошлые итерации технологии были видимыми и легко убирались в том же фотошопе.
Сейчас акцент делается именно на том, что человек не сможет увидеть водяной знак (даже при манипуляциях с параметрами изображения), а значит и не сможет убрать его в целях распространения заведомо ложной информации. Зато специализированные сервисы будут в два щелчка определять генерацию, развеивая хитрую пелену обмана.
Интересно, что Google не раскрыла, как именно работает её технология водяных знаков. Видимо, специально, чтобы не давать злоумышленникам подсказку по удалению своих новых вотермарок с изображений. Интересно, разгадают ли хакеры шифр Google самостоятельно? Пусть даже спустя какое-то время.
Пока что новый инструмент доступен только в собственной генеративной нейросети Google под названием Imagen . Вполне вероятно, что в будущем техногигант поделится технологией с крупными игроками рынка по типу Midjourney , Stable Diffusion и DALL-E , картинки которых сейчас составляют большую часть от всего сгенерированного визуального контента в принципе.
В ином случае, последние наверняка со временем разработают свой собственный уникальный аналог данной технологии. По крайней мере, сподвижки в эту сторону наблюдаются уже давно. Microsoft даже успела создать специальную коалицию для выработки стандарта маркировки ИИ-контента.
Таким образом, внедрение невидимых водяных знаков в сгенерированные искусственным интеллектом изображения позволит эффективно выявлять поддельный контент и бороться с дезинформацией. Хотя злоумышленники и могут со временем научиться обходить эту защиту, технологические компании, скорее всего, тоже будут постоянно совершенствовать свои методы маркировки и ощутимо сдерживать потоки поддельного контента.
- Источник новости
- www.securitylab.ru