Новая эра в развитии ИИ может переопределить будущее человечества.
Недавно стало известно о значимом открытии в области искусственного интеллекта (ИИ), сделанном командой исследователей OpenAI . Это открытие потенциально может изменить понимание и возможности ИИ во всём мире.
Для просмотра ссылки Войдиили Зарегистрируйся издания Reuters , накануне временного отстранения Сэма Альтмана с поста генерального директора OpenAI, группа исследователей компании направила письмо совету директоров, предупреждая о новом мощном алгоритме ИИ, который мог бы представлять реальную угрозу для человечества.
Этот алгоритм, известный как «Q*» (произносится как «Q-Star»), может стать прорывом в поисках общего искусственного интеллекта ( AGI ), который гипотетически должен превосходить человеческий интеллект.
Несмотря на то, что Q* пока выполняет математические задачи на уровне школьника, его успехи вызвали большой оптимизм и одновременно опасения среди исследователей. В своём письме к совету директоров исследователи указали на потенциальную опасность нового ИИ, не уточнив конкретных проблем безопасности.
В исследовательском сообществе уже долгое время идут дискуссии о рисках, которые могут представлять суперинтеллектуальные машины. В частности, если такие машины решат, что уничтожение человечества соответствует их интересам, то обязательно попытаются реализовать такой сценарий. Особенно, если будут наделены необходимым уровнем полномочий.
Сам Альтман уже выражал уверенность в скором достижении AGI на недавней встрече мировых лидеров в области искусственного интеллекта в Сан-Франциско. А буквально на следующий день после его выступления совет директоров уволил Альтмана.
Неужели это и стало причиной настоящей Для просмотра ссылки Войдиили Зарегистрируйся , которая недавно развернулась на глазах у всего мира? Действительно ли у OpenAI есть ключ к суперинтеллекту, и стоит ли его бояться простым интернет-пользователям? Пока что вопросов куда больше, чем ответов…
Недавно стало известно о значимом открытии в области искусственного интеллекта (ИИ), сделанном командой исследователей OpenAI . Это открытие потенциально может изменить понимание и возможности ИИ во всём мире.
Для просмотра ссылки Войди
Этот алгоритм, известный как «Q*» (произносится как «Q-Star»), может стать прорывом в поисках общего искусственного интеллекта ( AGI ), который гипотетически должен превосходить человеческий интеллект.
Несмотря на то, что Q* пока выполняет математические задачи на уровне школьника, его успехи вызвали большой оптимизм и одновременно опасения среди исследователей. В своём письме к совету директоров исследователи указали на потенциальную опасность нового ИИ, не уточнив конкретных проблем безопасности.
В исследовательском сообществе уже долгое время идут дискуссии о рисках, которые могут представлять суперинтеллектуальные машины. В частности, если такие машины решат, что уничтожение человечества соответствует их интересам, то обязательно попытаются реализовать такой сценарий. Особенно, если будут наделены необходимым уровнем полномочий.
Сам Альтман уже выражал уверенность в скором достижении AGI на недавней встрече мировых лидеров в области искусственного интеллекта в Сан-Франциско. А буквально на следующий день после его выступления совет директоров уволил Альтмана.
Неужели это и стало причиной настоящей Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru