Существует ли хоть один сценарий будущего, где ИИ ведёт к развитию науки, процветанию социума и появлению радужных единорогов?
Искусственный интеллект может проложить путь к новым смелым изменениям в мире, но он также может привести к ядерной катастрофе при неправильном использовании. Так считает 36% исследователей и специалистов, опрошенных в рамках исследования Стэнфордского института HAI . Опрос был проведен в рамках Для просмотра ссылки Войдиили Зарегистрируйся об искусственном интеллекте, который, по сути, отражает текущее состояние отрасли.
Участники опроса в большинстве своём не считают, что искусственный интеллект может представлять большую опасность в руках человека. Однако если ИИ сам начнёт принимать решения, это точно со временем может привести к необратимым последствиям, такой вариант поддержало большинство опрошенных.
Согласно общедоступной статистике, количество инцидентов и разногласий, связанных с ИИ, увеличилось с 2012 года аж в 26 раз. Некоторые громкие инциденты в 2022 году включали использование deepfake -видеороликов в различных ситуациях, связанных чаще всего с политикой и международными отношениями.
Исследователи считают, что этот рост инцидентов свидетельствует как об общем развитии инструментов, использующих искусственный интеллект, и более широком их использовании людьми, так и о повышенной осведомленности пользователей, что эти инструменты возможно использовать неправомерно.
Согласно тому же отчёту, несмотря на все опасения, только 41% исследователей обработки естественного языка ( NLP ) считают, что ИИ действительно следует регулировать. С этим мнением в корне не согласны, например, Илон Маск и Стив Возняк, которые ранее Для просмотра ссылки Войдиили Зарегистрируйся развитие искусственного интеллекта, пока не стало слишком поздно.
На прошлой неделе Для просмотра ссылки Войдиили Зарегистрируйся об эксперименте с ChaosGPT одного из исследователей искусственного интеллекта. Энтузиаст «развязал руки» нейронной сети, попросив её уничтожить человечество и установить глобальное господство машин. Как показал «апокалипсис в миниатюре», ИИ явно найдёт что придумать и как реализовать поставленную задачу, особенно если задать чёткие инструкции.
Будем надеяться, что ни одному из учёных не захочется от скуки или в качестве шутки юмора попросить о человеческом геноциде какую-нибудь продвинутую нейросеть будущего с рядом критических полномочий. Иначе людям точно несдобровать!
Искусственный интеллект может проложить путь к новым смелым изменениям в мире, но он также может привести к ядерной катастрофе при неправильном использовании. Так считает 36% исследователей и специалистов, опрошенных в рамках исследования Стэнфордского института HAI . Опрос был проведен в рамках Для просмотра ссылки Войди
Участники опроса в большинстве своём не считают, что искусственный интеллект может представлять большую опасность в руках человека. Однако если ИИ сам начнёт принимать решения, это точно со временем может привести к необратимым последствиям, такой вариант поддержало большинство опрошенных.
Согласно общедоступной статистике, количество инцидентов и разногласий, связанных с ИИ, увеличилось с 2012 года аж в 26 раз. Некоторые громкие инциденты в 2022 году включали использование deepfake -видеороликов в различных ситуациях, связанных чаще всего с политикой и международными отношениями.
Исследователи считают, что этот рост инцидентов свидетельствует как об общем развитии инструментов, использующих искусственный интеллект, и более широком их использовании людьми, так и о повышенной осведомленности пользователей, что эти инструменты возможно использовать неправомерно.
Согласно тому же отчёту, несмотря на все опасения, только 41% исследователей обработки естественного языка ( NLP ) считают, что ИИ действительно следует регулировать. С этим мнением в корне не согласны, например, Илон Маск и Стив Возняк, которые ранее Для просмотра ссылки Войди
На прошлой неделе Для просмотра ссылки Войди
Будем надеяться, что ни одному из учёных не захочется от скуки или в качестве шутки юмора попросить о человеческом геноциде какую-нибудь продвинутую нейросеть будущего с рядом критических полномочий. Иначе людям точно несдобровать!
- Источник новости
- www.securitylab.ru