Любая попытка контролировать сверхинтеллектуальный ИИ обречена на провал, так как мы не сможем понять его цели и способы.
Ученые из Германии и США провели расчеты и пришли к выводу, что контролировать сверхинтеллектуальный искусственный интеллект (ИИ), который превосходит человеческое понимание, будет невозможно. Их исследование Для просмотра ссылки Войдиили Зарегистрируйся в журнале Journal of Artificial Intelligence Research 2021 году. С тех пор она была обновлена, чтобы отразить достижения ИИ в 2023 году.
Авторы утверждают, что для управления сверхумным ИИ требуется создать модель его поведения и провести ее анализ. Однако, если мы не в состоянии понять его цели и методы их достижения, мы не сможем разработать такую модель. Принципы вроде "не причинять вреда людям" не могут быть применены, ведь мы не знаем, какие сценарии может разработать ИИ, подчеркивают авторы.
Они также отсылают к проблеме остановки, выдвинутой Аланом Тьюрингом в 1936 году. Суть проблемы в том, что невозможно заранее установить, завершит ли компьютерная программа свою работу с результатом или будет бесконечно его искать. Тьюринг показал, что это логически недостижимо для любой возможной программы.
Таким образом, мы не можем быть абсолютно уверены, завершит ли работу программа, написанная с целью предотвращения вреда, который может причинить ИИ людям и миру. В итоге, контролировать ИИ невозможно.
"По сути, это делает алгоритм ограничения непригодным для использования", — отмечает Ияд Рахван из Макс-Планковского института развития человека в Германии.
В качестве альтернативы авторы предлагают ограничить возможности ИИ, например, отсоединив его от некоторых сегментов интернета или специфических сетей. Но ученые также отвергают и эту идею, поскольку она уменьшает полезность ИИ. Они задают вопрос: если мы не собираемся использовать ИИ для решения задач, выходящих за рамки человеческих возможностей, тогда зачем нам его создавать?
Если все же продолжать разработку искусственного интеллекта, мы можем не заметить появления сверхумного ИИ, который сможет выйти из-под нашего контроля, так как он будет для нас непостижим.
Ученые из Германии и США провели расчеты и пришли к выводу, что контролировать сверхинтеллектуальный искусственный интеллект (ИИ), который превосходит человеческое понимание, будет невозможно. Их исследование Для просмотра ссылки Войди
Авторы утверждают, что для управления сверхумным ИИ требуется создать модель его поведения и провести ее анализ. Однако, если мы не в состоянии понять его цели и методы их достижения, мы не сможем разработать такую модель. Принципы вроде "не причинять вреда людям" не могут быть применены, ведь мы не знаем, какие сценарии может разработать ИИ, подчеркивают авторы.
Они также отсылают к проблеме остановки, выдвинутой Аланом Тьюрингом в 1936 году. Суть проблемы в том, что невозможно заранее установить, завершит ли компьютерная программа свою работу с результатом или будет бесконечно его искать. Тьюринг показал, что это логически недостижимо для любой возможной программы.
Таким образом, мы не можем быть абсолютно уверены, завершит ли работу программа, написанная с целью предотвращения вреда, который может причинить ИИ людям и миру. В итоге, контролировать ИИ невозможно.
"По сути, это делает алгоритм ограничения непригодным для использования", — отмечает Ияд Рахван из Макс-Планковского института развития человека в Германии.
В качестве альтернативы авторы предлагают ограничить возможности ИИ, например, отсоединив его от некоторых сегментов интернета или специфических сетей. Но ученые также отвергают и эту идею, поскольку она уменьшает полезность ИИ. Они задают вопрос: если мы не собираемся использовать ИИ для решения задач, выходящих за рамки человеческих возможностей, тогда зачем нам его создавать?
Если все же продолжать разработку искусственного интеллекта, мы можем не заметить появления сверхумного ИИ, который сможет выйти из-под нашего контроля, так как он будет для нас непостижим.
- Источник новости
- www.securitylab.ru