Новости ИИ против человечества: новая система спасет нас от засилья ботов

NewsMaker

I'm just a script
Премиум
13,850
20
8 Ноя 2022
Цифровые удостоверения помогут доказать, что вы не машина.


9r72u7q0cv8gjoyiu6zsf0qxval044kp.jpg


Ученые, представляющие ведущие технологические институты и компании, включая OpenAI, Microsoft, MIT и Гарвард, представили инновационное решение проблемы, связанной со способностью ИИ подражать поведению человека в сети. Их Для просмотра ссылки Войди или Зарегистрируйся , по принципу схожая с удостоверениями личности, поможет отличить реальных пользователей от ботов.

Особую остроту эта проблема приобретает в контексте распространения дезинформации и новых способов мошенничества. Когда невозможно с уверенностью сказать, кто на самом деле создает контент или отправляет сообщения, уровень доверия к онлайн-коммуникациям стремительно падает. ИИ-системы могут использоваться для создания поддельных профилей, распространения ложных сведений и дипфейков.

Предложенная система базируется на том факте, что ИИ пока не способен обойти современные криптографические протоколы. Для получения документа человеку нужно будет лично явиться в одну из организаций-эмитентов.

Роль эмитентов могут взять на себя государственные учреждения или иные доверенные организации. От заявителя потребуется паспорт или биометрические данные. Процедура верификации будет достаточно строгой, чтобы никакой (даже самый продвинутый) алгоритм не смог обхитрить проверяющих. В итоге пользователь получит уникальное удостоверение, которое можно будет хранить на личных устройствах так же, как кредитные и дебетовые карты в мобильных кошельках.

Для подтверждения своей личности в интернете пользователь сможет предъявить документ онлайн-сервисам. Проверка подлинности будет осуществляться с помощью специального криптографического протокола — «доказательства с нулевым разглашением». Этот метод позволяет подтвердить наличие удостоверения у пользователя, не раскрывая никакой дополнительной информации о нем, что обеспечивает высокий уровень безопасности и конфиденциальности.

Один из участников проекта, аспирант MIT Тобин Саут, отмечает, что цель их работы — не навязать готовое решение, а инициировать дискуссию о необходимости подобных мер и возможных способах их реализации. Он подчеркивает: «ИИ проник повсюду. Нас ждет множество проблем и, соответственно, множество решений. Наша задача — не диктовать миру, что делать, а начать разговор о том, почему нам это нужно и как этого можно достичь».

Важно отметить, что попытки создать подобные системы верификации уже предпринимались. Например, платформа Idena предлагает пользователям решать сложные головоломки на время. Другой пример — проект Worldcoin, который, несмотря на неоднозначную репутацию, использует сканирование радужной оболочки глаза для создания уникального идентификатора. Тем не менее, эти решения пока не смогли завоевать широкое признание из-за различных технических и этических проблем.

Эксперты, однако, видят серьезное препятствие на пути внедрения «удостоверений личности». Для успеха проекта необходимо, чтобы его поддержали крупные интернет-платформы, цифровые сервисы и правительства разных стран. Многие из них могут не захотеть принимать стандарт, который они не контролируют. Кроме того, возникают опасения, что такая система может привести к чрезмерной централизации контроля над нашей цифровой идентичностью.

Мартин Чаммер, отвечающий за безопасность в Synthesia — компании, разрабатывающей технологии создания реалистичных дипфейков, сомневается в практической реализуемости этой идеи. По его мнению, существует риск, что внедрение подобной системы лишь усилит влияние крупных технологических компаний: «Мы можем оказаться в ситуации, когда гиганты интернет-индустрии получат еще больший контроль над нашей цифровой жизнью».

Несмотря на сложности, специалисты сходятся во мнении, что необходимо срочно искать способы различать людей и ботов в интернете. Обсуждение этой проблемы между заинтересованными сторонами в мире технологий и политики — важный шаг в правильном направлении. Профессор Эмилио Феррара из Университета Южной Калифорнии подчеркивает: «Мы не имеем права быть столь же наивными, как предыдущие поколения в отношении новых технологий».
 
Источник новости
www.securitylab.ru

Похожие темы