Почему технологические решения не спасают от манипуляций общественным мнением.
В феврале на Мюнхенской конференции по безопасности ведущие компании в области искусственного интеллекта Для просмотра ссылки Войдиили Зарегистрируйся по защите выборов от вредных воздействий ИИ. Событие было воспринято как значительная победа в деле защиты демократических систем. Однако спустя полгода политики и эксперты утверждают, что, несмотря на выполнение некоторых из обязательств, компании не смогли полностью реализовать свои обещания и недостаточно прозрачно освещают предпринимаемые шаги.
Сенатор Марк Уорнер, председатель сенатского комитета по разведке, получил письма от OpenAI , Microsoft, Google, Amazon, TikTok , Meta* и X**, в которых компании описывают свой прогресс в создании систем для идентификации и маркировки синтетического контента, а также в ограничении использования их технологий в контексте выборов. Письма демонстрируют некоторые достижения, но Уорнер считает, что этого недостаточно.
Сенатор выразил разочарование по поводу того, что лишь немногие компании предоставили пользователям четкие механизмы отчетности и восстановления в случаях злоупотребления технологиями для имитации личности. В письмах компаний не хватает детализированных планов, ресурсов для обеспечения соблюдения правил и измеримых воздействий на распространение политической дезинформации, созданной ИИ. Также подчеркивается отсутствие количественных данных, подтверждающих эффективность принятых мер.
По мнению экспертов, компании только создают видимость действий без реального воздействия на избирателей и пользователей. Несмотря на усилия компаний по предотвращению использования их технологий для подрыва выборов, ИИ-контент, предназначенный для введения избирателей в заблуждение, наводнил интернет и соцсети.
Тем не менее, компании продолжают работать над совершенствованием алгоритмов обнаружения и маркировки контента, сотрудничая с организациями по проверке фактов, местными и государственными органами власти, а также с такими инициативами, как Coalition for Content Provenance and Authenticity (C2PA) и AI Safety Institute .
OpenAI, например, Для просмотра ссылки Войдиили Зарегистрируйся о внедрении стандарта C2PA для отслеживания происхождения синтетического медиаконтента. TikTok Для просмотра ссылки Войди или Зарегистрируйся внедрить «учетные данные контента», чтобы идентифицировать измененные видео и автоматически маркировать такой контент. Кроме того, TikTok запрещает платную политическую рекламу и не позволяет политикам или партиям монетизировать свои аккаунты. Компания также запрещает использование генеративного ИИ для введения людей в заблуждение относительно одобрений.
Аналогичным образом Meta Для просмотра ссылки Войдиили Зарегистрируйся обнаружение и маркировку ИИ-контента. Компания также работает над Stable Signature, своей технологией водяных знаков. Рекламодателям, использующим такую технологию, возможно, придется раскрывать ее использование в политической рекламе.
Однако водяные знаки и метаданные пока не в полной мере защищают от ИИ-подделок, что подчеркивает необходимость более широкого обмена информацией в отрасли для точного выявления ИИ-контента. Многие компании также отмечают проблемы с идентификацией ИИ-контента. Технологический прогресс не способен полностью решить более крупные проблемы, такие как сокращение команд по обеспечению доверия и безопасности, слабое выполнение политик против дезинформации и импульсивные действия ключевых лиц.
Пока компании разрабатывают или внедряют технологии обнаружения и водяные знаки, проблема заключается в том, что эти методы еще не достигли высокой эффективности. Даже лучшие технологии обнаружения подделок и все более строгие правила модерации контента могут оказаться бессмысленными, если руководство компании или владелец будут распространять подделки среди миллионов пользователей без должного контекста.
Полный список компаний, которые предоставили свои ответы: Для просмотра ссылки Войдиили Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , и Для просмотра ссылки Войди или Зарегистрируйся .
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
<span style="font-size: 8pt;"> </span>
<span style="font-size: 8pt;"> ** Социальная сеть запрещена на территории Российской Федерации.</span>
В феврале на Мюнхенской конференции по безопасности ведущие компании в области искусственного интеллекта Для просмотра ссылки Войди
Сенатор Марк Уорнер, председатель сенатского комитета по разведке, получил письма от OpenAI , Microsoft, Google, Amazon, TikTok , Meta* и X**, в которых компании описывают свой прогресс в создании систем для идентификации и маркировки синтетического контента, а также в ограничении использования их технологий в контексте выборов. Письма демонстрируют некоторые достижения, но Уорнер считает, что этого недостаточно.
Сенатор выразил разочарование по поводу того, что лишь немногие компании предоставили пользователям четкие механизмы отчетности и восстановления в случаях злоупотребления технологиями для имитации личности. В письмах компаний не хватает детализированных планов, ресурсов для обеспечения соблюдения правил и измеримых воздействий на распространение политической дезинформации, созданной ИИ. Также подчеркивается отсутствие количественных данных, подтверждающих эффективность принятых мер.
По мнению экспертов, компании только создают видимость действий без реального воздействия на избирателей и пользователей. Несмотря на усилия компаний по предотвращению использования их технологий для подрыва выборов, ИИ-контент, предназначенный для введения избирателей в заблуждение, наводнил интернет и соцсети.
Тем не менее, компании продолжают работать над совершенствованием алгоритмов обнаружения и маркировки контента, сотрудничая с организациями по проверке фактов, местными и государственными органами власти, а также с такими инициативами, как Coalition for Content Provenance and Authenticity (C2PA) и AI Safety Institute .
OpenAI, например, Для просмотра ссылки Войди
Аналогичным образом Meta Для просмотра ссылки Войди
Однако водяные знаки и метаданные пока не в полной мере защищают от ИИ-подделок, что подчеркивает необходимость более широкого обмена информацией в отрасли для точного выявления ИИ-контента. Многие компании также отмечают проблемы с идентификацией ИИ-контента. Технологический прогресс не способен полностью решить более крупные проблемы, такие как сокращение команд по обеспечению доверия и безопасности, слабое выполнение политик против дезинформации и импульсивные действия ключевых лиц.
Пока компании разрабатывают или внедряют технологии обнаружения и водяные знаки, проблема заключается в том, что эти методы еще не достигли высокой эффективности. Даже лучшие технологии обнаружения подделок и все более строгие правила модерации контента могут оказаться бессмысленными, если руководство компании или владелец будут распространять подделки среди миллионов пользователей без должного контекста.
Полный список компаний, которые предоставили свои ответы: Для просмотра ссылки Войди
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
<span style="font-size: 8pt;"> </span>
<span style="font-size: 8pt;"> ** Социальная сеть запрещена на территории Российской Федерации.</span>
- Источник новости
- www.securitylab.ru