Эксперт считает что человечество не понимает серьезность сложившейся ситуации.
Эксперт в области искусственного интеллекта Елиэзер Юдковский обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Юдковский предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни. Юдковский Для просмотра ссылки Войдиили Зарегистрируйся в Time Magazine, выражая свою обеспокоенность.
OpenAI намеревается решить проблему регулирования, создав ИИ, способный управлять принципами работы других ИИ. Юдковский критикует OpenAI за отсутствие прозрачности и указывает на недавнее письмо, подписанное Илоном Маском и тысячами других IT-экспертов. В письме призывается к полугодовому мораторию на крупные ИИ-разработки, но Юдковский считает, что исследования должны быть приостановлены навсегда.
Учёный полагает, что изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Юдковский призывает к запрету на крупные эксперименты по изучению ИИ без исключений для государственных и военных ведомств. Юдковский также предлагает заключить многосторонние соглашения, которые предусматривают ограничения на создание ЦОД и снижение квот по мере разработки более совершенных алгоритмов обучения.
В случае обнаружения строительства ЦОД для AGI в стране, отказавшейся от моратория, спецслужбы должны уничтожить такие ЦОД авиаударами. Юдковский считает, что любой конфликт между странами будет менее опасен, чем война между человечеством и искусственным интеллектом. При создании сверхчеловеческого разума, Юдковский утверждает, ошибки недопустимы, так как возможности исправления уже не представится.
Ранее в Для просмотра ссылки Войдиили Зарегистрируйся , подписанном более 1000 человек, содержится призыв ко «всем лабораториям ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
Эксперт в области искусственного интеллекта Елиэзер Юдковский обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Юдковский предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни. Юдковский Для просмотра ссылки Войди
OpenAI намеревается решить проблему регулирования, создав ИИ, способный управлять принципами работы других ИИ. Юдковский критикует OpenAI за отсутствие прозрачности и указывает на недавнее письмо, подписанное Илоном Маском и тысячами других IT-экспертов. В письме призывается к полугодовому мораторию на крупные ИИ-разработки, но Юдковский считает, что исследования должны быть приостановлены навсегда.
Учёный полагает, что изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Юдковский призывает к запрету на крупные эксперименты по изучению ИИ без исключений для государственных и военных ведомств. Юдковский также предлагает заключить многосторонние соглашения, которые предусматривают ограничения на создание ЦОД и снижение квот по мере разработки более совершенных алгоритмов обучения.
В случае обнаружения строительства ЦОД для AGI в стране, отказавшейся от моратория, спецслужбы должны уничтожить такие ЦОД авиаударами. Юдковский считает, что любой конфликт между странами будет менее опасен, чем война между человечеством и искусственным интеллектом. При создании сверхчеловеческого разума, Юдковский утверждает, ошибки недопустимы, так как возможности исправления уже не представится.
Ранее в Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru