Создание совершенного ИИ, похожего на человека, может отрицательно повлиять на будущее людей.
В новом документальном фильме, Для просмотра ссылки Войдиили Зарегистрируйся газетой «The Guardian», Илья Суцкевер, сооснователь и главный научный сотрудник OpenAI , выразил мнение, что разрабатываемая его компанией технология изменит мир, но не всегда в пользу человечества. Снятый между 2016 и 2019 годами, фильм показывает Суцкевера в период, когда OpenAI создавала технологии, лежащие в основе существующего популярного ChatGPT . Он отмечает, что искусственный интеллект (ИИ) решит многие современные проблемы, включая занятость, болезни и бедность, но также создаст новые.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="" title="Ilya: the AI scientist shaping the world"> </iframe>
Суцкевер, известный своими исследованиями в области машинного обучения, заявил в начале 2022 года, что некоторые крупные языковые модели (LLM) могут быть сознательными. Он подчеркивает важность «выравнивания ИИ» – задачи создания ИИ, который будет соответствовать нашим целям.
Комментируя возможные цели ИИ, Суцкевер сравнивает их с поведением людей по отношению к животным – мы не спрашиваем разрешения у животных, когда строим автострады, потому что это удобно для нас. По словам Суцкевера, именно такие отношения могут сложиться между людьми и искусственным интеллектом общего назначения (Artificial General Intelligence, AGI ), если его не программировать правильно.
Суцкевер предупреждает, что если программирование ИИ будет выполнено неверно, то природа эволюции и естественного отбора будет способствовать выживанию тех систем, которые отдают приоритет собственному выживанию. Специалист заключает, что это чрезвычайно важно для будущего человечества.
В новом документальном фильме, Для просмотра ссылки Войди
<iframe width="560" height="315" src="
Суцкевер, известный своими исследованиями в области машинного обучения, заявил в начале 2022 года, что некоторые крупные языковые модели (LLM) могут быть сознательными. Он подчеркивает важность «выравнивания ИИ» – задачи создания ИИ, который будет соответствовать нашим целям.
Комментируя возможные цели ИИ, Суцкевер сравнивает их с поведением людей по отношению к животным – мы не спрашиваем разрешения у животных, когда строим автострады, потому что это удобно для нас. По словам Суцкевера, именно такие отношения могут сложиться между людьми и искусственным интеллектом общего назначения (Artificial General Intelligence, AGI ), если его не программировать правильно.
Суцкевер предупреждает, что если программирование ИИ будет выполнено неверно, то природа эволюции и естественного отбора будет способствовать выживанию тех систем, которые отдают приоритет собственному выживанию. Специалист заключает, что это чрезвычайно важно для будущего человечества.
- Источник новости
- www.securitylab.ru