Эксперты спорят о сроках появления общего ИИ и его влиянии на будущее.
Вопрос о том, когда машины превзойдут интеллект человека, обсуждается уже не одно десятилетие. Однако с развитием алгоритмов машинного обучения и программ, которые могут легко проходить тест Тьюринга, этот вопрос становится все более актуальным. Сколько времени остается до создания искусственного общего интеллекта ( AGI ) и какие риски могут возникнуть в процессе?
Современный искусственный интеллект (ИИ) в основном строится на основе больших языковых моделей (LLM), и Для просмотра ссылки Войдиили Зарегистрируйся на самом деле не думают о своём ответе и не проводят исследования — они оперируют вероятностями и статистикой. Используя обучающие данные, они вычисляют наиболее вероятное слово (иногда букву), которое должно следовать за предыдущим. Это может давать разумные результаты, но также приводит к ошибкам и даже опасным выводам, с Для просмотра ссылки Войди или Зарегистрируйся , которые человек никогда бы не дал. Эти машины не мыслят.
Эти модели специализируются на выполнении узких задач, требующих конкретных обучающих данных. Однако в этой области уже активно обсуждается возможность появления AGI. Эти алгоритмы смогут выполнять множество задач на уровне человека. И хотя искусственное сознание может быть Для просмотра ссылки Войдиили Зарегистрируйся , разработка AGI рассматривается как важный этап. В некоторых отраслях утверждают, что до AGI остаётся всего несколько Для просмотра ссылки Войди или Зарегистрируйся .
«В следующие десять или два десятка лет, вероятно, отдельный компьютер достигнет вычислительной мощности человеческого мозга к 2029 или 2030 году. А ещё через 10–15 лет один компьютер может иметь вычислительную мощность всего общества», — заявил Бен Гёрцель, основатель SingularityNET, который Для просмотра ссылки Войдиили Зарегистрируйся «децентрализованный, демократичный и инклюзивный AGI» на конференции Beneficial AGI Summit 2024. Подробнее об этом Для просмотра ссылки Войди или Зарегистрируйся .
Из этого возникают два важных вопроса. Первый — насколько точны эти оценки? Критики утверждают, что разговоры о скором AGI — это способ подогреть интерес к текущим технологиям ИИ и Для просмотра ссылки Войдиили Зарегистрируйся их популярности, прежде чем произойдет неизбежный спад. Недавно лауреат Нобелевской премии и один из основателей ИИ Для просмотра ссылки Войди или Зарегистрируйся считает, что до появления AGI остаётся менее 20 лет. Йошуа Бенджио, который в 2018 году разделил с Хинтоном премию Тьюринга, утверждает, что Для просмотра ссылки Войди или Зарегистрируйся .
Второй вопрос касается возможных рисков. Хинтон покинул Google в прошлом году из-за обеспокоенности Для просмотра ссылки Войдиили Зарегистрируйся , связанными с ИИ. Кроме того, опрос показал, что Для просмотра ссылки Войди или Зарегистрируйся считает, что ИИ может привести к катастрофическим последствиям. Однако не стоит ожидать, что будущее будет похоже на фильмы про Терминатора, где машины охотятся на людей. Опасности могут быть гораздо более банальными.
Уже сейчас модели ИИ сталкиваются с обвинениями в Для просмотра ссылки Войдиили Зарегистрируйся данных для обучения, например, украденных произведений искусства. В начале этого года OpenAI Для просмотра ссылки Войди или Зарегистрируйся разрешить использование защищенных авторским правом материалов для обучения моделей, поскольку без них невозможно создать прибыльные ИИ. Есть также экологические риски. Современные ИИ связаны с Для просмотра ссылки Войди или Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся . Более мощные ИИ потребуют еще больше ресурсов в условиях меняющегося климата.
Ещё одной угрозой является использование ИИ для создания ложных материалов с целью распространения дезинформации. Создание фальшивых изображений для пропаганды или других злонамеренных целей становится всё проще. И хотя сейчас существуют способы Для просмотра ссылки Войдиили Зарегистрируйся , со временем это будет становиться всё сложнее.
Регулирование в области ИИ пока развивается медленно, и это вызывает озабоченность по поводу текущих рисков. Однако некоторые исследования показывают, что чрезмерные опасения могут быть преувеличены, поскольку чем больше плохих материалов будет создано ИИ, тем хуже он станет со временем, так как будет обучаться на собственных ошибках и Для просмотра ссылки Войдиили Зарегистрируйся . Возможно, до создания настоящего искусственного интеллекта ещё далеко, но вот до создания искусственной глупости мы уже на подходе.
Вопрос о том, когда машины превзойдут интеллект человека, обсуждается уже не одно десятилетие. Однако с развитием алгоритмов машинного обучения и программ, которые могут легко проходить тест Тьюринга, этот вопрос становится все более актуальным. Сколько времени остается до создания искусственного общего интеллекта ( AGI ) и какие риски могут возникнуть в процессе?
Современный искусственный интеллект (ИИ) в основном строится на основе больших языковых моделей (LLM), и Для просмотра ссылки Войди
Эти модели специализируются на выполнении узких задач, требующих конкретных обучающих данных. Однако в этой области уже активно обсуждается возможность появления AGI. Эти алгоритмы смогут выполнять множество задач на уровне человека. И хотя искусственное сознание может быть Для просмотра ссылки Войди
«В следующие десять или два десятка лет, вероятно, отдельный компьютер достигнет вычислительной мощности человеческого мозга к 2029 или 2030 году. А ещё через 10–15 лет один компьютер может иметь вычислительную мощность всего общества», — заявил Бен Гёрцель, основатель SingularityNET, который Для просмотра ссылки Войди
Из этого возникают два важных вопроса. Первый — насколько точны эти оценки? Критики утверждают, что разговоры о скором AGI — это способ подогреть интерес к текущим технологиям ИИ и Для просмотра ссылки Войди
Второй вопрос касается возможных рисков. Хинтон покинул Google в прошлом году из-за обеспокоенности Для просмотра ссылки Войди
Уже сейчас модели ИИ сталкиваются с обвинениями в Для просмотра ссылки Войди
Ещё одной угрозой является использование ИИ для создания ложных материалов с целью распространения дезинформации. Создание фальшивых изображений для пропаганды или других злонамеренных целей становится всё проще. И хотя сейчас существуют способы Для просмотра ссылки Войди
Регулирование в области ИИ пока развивается медленно, и это вызывает озабоченность по поводу текущих рисков. Однако некоторые исследования показывают, что чрезмерные опасения могут быть преувеличены, поскольку чем больше плохих материалов будет создано ИИ, тем хуже он станет со временем, так как будет обучаться на собственных ошибках и Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru