Новости ИИ-компании проваливают обещания защитить выборы

NewsMaker

I'm just a script
Премиум
14,097
20
8 Ноя 2022
Почему технологические решения не спасают от манипуляций общественным мнением.


y2yhg8pme556kfu07u0ciiynolg48ald.jpg


В феврале на Мюнхенской конференции по безопасности ведущие компании в области искусственного интеллекта Для просмотра ссылки Войди или Зарегистрируйся по защите выборов от вредных воздействий ИИ. Событие было воспринято как значительная победа в деле защиты демократических систем. Однако спустя полгода политики и эксперты утверждают, что, несмотря на выполнение некоторых из обязательств, компании не смогли полностью реализовать свои обещания и недостаточно прозрачно освещают предпринимаемые шаги.

Сенатор Марк Уорнер, председатель сенатского комитета по разведке, получил письма от OpenAI , Microsoft, Google, Amazon, TikTok , Meta* и X**, в которых компании описывают свой прогресс в создании систем для идентификации и маркировки синтетического контента, а также в ограничении использования их технологий в контексте выборов. Письма демонстрируют некоторые достижения, но Уорнер считает, что этого недостаточно.

Сенатор выразил разочарование по поводу того, что лишь немногие компании предоставили пользователям четкие механизмы отчетности и восстановления в случаях злоупотребления технологиями для имитации личности. В письмах компаний не хватает детализированных планов, ресурсов для обеспечения соблюдения правил и измеримых воздействий на распространение политической дезинформации, созданной ИИ. Также подчеркивается отсутствие количественных данных, подтверждающих эффективность принятых мер.

По мнению экспертов, компании только создают видимость действий без реального воздействия на избирателей и пользователей. Несмотря на усилия компаний по предотвращению использования их технологий для подрыва выборов, ИИ-контент, предназначенный для введения избирателей в заблуждение, наводнил интернет и соцсети.

Тем не менее, компании продолжают работать над совершенствованием алгоритмов обнаружения и маркировки контента, сотрудничая с организациями по проверке фактов, местными и государственными органами власти, а также с такими инициативами, как Coalition for Content Provenance and Authenticity (C2PA) и AI Safety Institute .

OpenAI, например, Для просмотра ссылки Войди или Зарегистрируйся о внедрении стандарта C2PA для отслеживания происхождения синтетического медиаконтента. TikTok Для просмотра ссылки Войди или Зарегистрируйся внедрить «учетные данные контента», чтобы идентифицировать измененные видео и автоматически маркировать такой контент. Кроме того, TikTok запрещает платную политическую рекламу и не позволяет политикам или партиям монетизировать свои аккаунты. Компания также запрещает использование генеративного ИИ для введения людей в заблуждение относительно одобрений.

Аналогичным образом Meta Для просмотра ссылки Войди или Зарегистрируйся обнаружение и маркировку ИИ-контента. Компания также работает над Stable Signature, своей технологией водяных знаков. Рекламодателям, использующим такую технологию, возможно, придется раскрывать ее использование в политической рекламе.

Однако водяные знаки и метаданные пока не в полной мере защищают от ИИ-подделок, что подчеркивает необходимость более широкого обмена информацией в отрасли для точного выявления ИИ-контента. Многие компании также отмечают проблемы с идентификацией ИИ-контента. Технологический прогресс не способен полностью решить более крупные проблемы, такие как сокращение команд по обеспечению доверия и безопасности, слабое выполнение политик против дезинформации и импульсивные действия ключевых лиц.

Пока компании разрабатывают или внедряют технологии обнаружения и водяные знаки, проблема заключается в том, что эти методы еще не достигли высокой эффективности. Даже лучшие технологии обнаружения подделок и все более строгие правила модерации контента могут оказаться бессмысленными, если руководство компании или владелец будут распространять подделки среди миллионов пользователей без должного контекста.

Полный список компаний, которые предоставили свои ответы: Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , и Для просмотра ссылки Войди или Зарегистрируйся .

<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. </span>

<span style="font-size: 8pt;"> </span>
<span style="font-size: 8pt;"> ** Социальная сеть запрещена на территории Российской Федерации.</span>
 
Источник новости
www.securitylab.ru

Похожие темы