Новости Искусственный интеллект как угроза выживанию: Юдковский предлагает авиаудары по ЦОДам

NewsMaker

I'm just a script
Премиум
13,887
20
8 Ноя 2022
Эксперт считает что человечество не понимает серьезность сложившейся ситуации.


6wj0z568srbx3zmry8a8whws7v0ho9x7.jpg


Эксперт в области искусственного интеллекта Елиэзер Юдковский обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Юдковский предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни. Юдковский Для просмотра ссылки Войди или Зарегистрируйся в Time Magazine, выражая свою обеспокоенность.

OpenAI намеревается решить проблему регулирования, создав ИИ, способный управлять принципами работы других ИИ. Юдковский критикует OpenAI за отсутствие прозрачности и указывает на недавнее письмо, подписанное Илоном Маском и тысячами других IT-экспертов. В письме призывается к полугодовому мораторию на крупные ИИ-разработки, но Юдковский считает, что исследования должны быть приостановлены навсегда.

Учёный полагает, что изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Юдковский призывает к запрету на крупные эксперименты по изучению ИИ без исключений для государственных и военных ведомств. Юдковский также предлагает заключить многосторонние соглашения, которые предусматривают ограничения на создание ЦОД и снижение квот по мере разработки более совершенных алгоритмов обучения.

В случае обнаружения строительства ЦОД для AGI в стране, отказавшейся от моратория, спецслужбы должны уничтожить такие ЦОД авиаударами. Юдковский считает, что любой конфликт между странами будет менее опасен, чем война между человечеством и искусственным интеллектом. При создании сверхчеловеческого разума, Юдковский утверждает, ошибки недопустимы, так как возможности исправления уже не представится.

Ранее в Для просмотра ссылки Войди или Зарегистрируйся , подписанном более 1000 человек, содержится призыв ко «всем лабораториям ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
 
Источник новости
www.securitylab.ru

Похожие темы