Новые технологии могут вернуть состояние мира 2008 года.
Историк и писатель Юваль Ной Харари Для просмотра ссылки Войдиили Зарегистрируйся газете The Guardian , что искусственный интеллект может вызвать финансовый кризис с "катастрофическими" последствиями. По его словам, сложность технологии делает прогнозирование её опасностей затруднительным. Харари, известный своей критикой развития ИИ, считает, что безопасность таких систем невозможно обеспечить, так как они могут привести к множеству опасных сценариев, угрожающих самому существованию человеческой цивилизации.
На глобальном саммите по безопасности ИИ в Блетчли-Парке (Station X) была подписана многосторонняя декларация, которую Харари называет "очень важным шагом вперёд". Ведущие правительства Для просмотра ссылки Войдиили Зарегистрируйся в этой области. Особенно значимым Харари считает присоединение к декларации Китая, подчеркивая, что без глобального сотрудничества остановить самые опасные возможности ИИ будет чрезвычайно сложно.
Саммит завершился соглашением о сотрудничестве 10 правительств, включая США и Великобританию, Евросоюза и крупнейших компаний в области ИИ – OpenAI и Google – по тестированию передовых моделей ИИ до и после их выпуска.
Харари подчеркивает, что ИИ отличается от любых предыдущих технологий тем, что может принимать решения самостоятельно, создавать новые идеи и развиваться. Он указывает на финансы как на сферу, идеально подходящую для систем искусственного интеллекта, и потенциальный источник серьёзного кризиса.
Харари предполагает, что ИИ может создать финансовые инструменты, которые будут на порядки сложнее, чем те, что привели к кризису 2007-2008 годов, и которые никто не сможет понять, что затруднит их регулирование.
Недавно правительство Великобритании выразило обеспокоенность потенциальной угрозой передовых моделей ИИ, которые могут контролировать и манипулировать финансовыми системами. Однако, по словам Харари, кризис, созданный ИИ, сам по себе не уничтожит человеческую цивилизацию, хотя может косвенно привести к войнам или конфликтам.
Харари, поддерживающий Для просмотра ссылки Войдиили Зарегистрируйся и сторонник привлечения компаний-разработчиков ИИ к ответственности за ущерб, причиненный их продукцией, считает, что акцент должен быть сделан не на конкретных законах, а на создании регулирующих органов, способных быстро реагировать на новые прорывы в технологиях.
Историк и писатель Юваль Ной Харари Для просмотра ссылки Войди
На глобальном саммите по безопасности ИИ в Блетчли-Парке (Station X) была подписана многосторонняя декларация, которую Харари называет "очень важным шагом вперёд". Ведущие правительства Для просмотра ссылки Войди
Саммит завершился соглашением о сотрудничестве 10 правительств, включая США и Великобританию, Евросоюза и крупнейших компаний в области ИИ – OpenAI и Google – по тестированию передовых моделей ИИ до и после их выпуска.
Харари подчеркивает, что ИИ отличается от любых предыдущих технологий тем, что может принимать решения самостоятельно, создавать новые идеи и развиваться. Он указывает на финансы как на сферу, идеально подходящую для систем искусственного интеллекта, и потенциальный источник серьёзного кризиса.
Харари предполагает, что ИИ может создать финансовые инструменты, которые будут на порядки сложнее, чем те, что привели к кризису 2007-2008 годов, и которые никто не сможет понять, что затруднит их регулирование.
Недавно правительство Великобритании выразило обеспокоенность потенциальной угрозой передовых моделей ИИ, которые могут контролировать и манипулировать финансовыми системами. Однако, по словам Харари, кризис, созданный ИИ, сам по себе не уничтожит человеческую цивилизацию, хотя может косвенно привести к войнам или конфликтам.
Харари, поддерживающий Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru