Определение "проблематичных сфер" в развитии ИИ - более эффективный подход, чем мораторий.
Требования к остановке разработки искусственного интеллекта, превосходящего GPT-4, вряд ли будут успешными, согласно мнению сооснователя Microsoft, Билла Гейтса. Он выразил свое мнение о недавнем открытом письме, подписанном Илоном Маском, Стивом Возняком и другими.
Билл Гейтс также сомневается, что прекращение работы над ИИ, сильнее GPT-4, решит проблемы с ИИ. Соучредитель компании полагает, что мораторий нецелесообразен; лучше определить "проблематичные сферы" в развитии искусственного интеллекта и сосредоточиться на их решении. Гейтс также выражает сомнения в том, что разработчики и IT-компании прекратят или заморозят свои проекты.
"Я не считаю, что обращение к определенной группе с просьбой остановить разработку ИИ-систем ответит на текущие вызовы. Безусловно, у этих систем есть значительные преимущества. Нам необходимо определить области риска," - заявил он. Билл также предполагает, что власти многих стран просто проигнорируют Для просмотра ссылки Войдиили Зарегистрируйся
Само письмо под заголовком "Будущее Жизни" было Для просмотра ссылки Войдиили Зарегистрируйся в конце марта. Его подписали около тысячи исследователей искусственного интеллекта. В нем более тысячи известных личностей и специалистов, в том числе Илон Маск и Стив Возняк призывали все лаборатории искусственного интеллекта приостановить обучение более мощных систем ИИ, чем GPT-4.
В начале апреля специалисты по этике AI прокомментировали данную инициативу. По их мнению, применение ИИ-технологий уже может быть опасным сегодня, а не только в будущем.
Также известный учёный Юдковский Для просмотра ссылки Войдиили Зарегистрируйся крупные эксперименты с ИИ и уничтожать ЦОДы, чтобы предотвратить киберапокалипсис.
Требования к остановке разработки искусственного интеллекта, превосходящего GPT-4, вряд ли будут успешными, согласно мнению сооснователя Microsoft, Билла Гейтса. Он выразил свое мнение о недавнем открытом письме, подписанном Илоном Маском, Стивом Возняком и другими.
Билл Гейтс также сомневается, что прекращение работы над ИИ, сильнее GPT-4, решит проблемы с ИИ. Соучредитель компании полагает, что мораторий нецелесообразен; лучше определить "проблематичные сферы" в развитии искусственного интеллекта и сосредоточиться на их решении. Гейтс также выражает сомнения в том, что разработчики и IT-компании прекратят или заморозят свои проекты.
"Я не считаю, что обращение к определенной группе с просьбой остановить разработку ИИ-систем ответит на текущие вызовы. Безусловно, у этих систем есть значительные преимущества. Нам необходимо определить области риска," - заявил он. Билл также предполагает, что власти многих стран просто проигнорируют Для просмотра ссылки Войди
Само письмо под заголовком "Будущее Жизни" было Для просмотра ссылки Войди
В начале апреля специалисты по этике AI прокомментировали данную инициативу. По их мнению, применение ИИ-технологий уже может быть опасным сегодня, а не только в будущем.
Также известный учёный Юдковский Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru