Гендиректор Nvidia также предложил метод борьбы с выводом неверной информации чат-ботов.
На ежегодной конференции разработчиков Nvidia GTC Дженсен Хуанг Для просмотра ссылки Войдиили Зарегистрируйся о будущем общего ИИ ( AGI ). В отличие от узкоспециализированного ИИ, который решает конкретные задачи, AGI сможет выполнять широкий спектр когнитивных задач на одном или выше уровня человека.
Хуанг выразил недовольство по поводу частых вопросов об AGI (Artifical General Intelligence), особенно касающихся его потенциального влияния на будущее человечества и возможность контроля над такой технологией. Основная проблема заключается в непредсказуемости процессов принятия решений AGI, которые могут не совпадать с человеческими ценностями или приоритетами.
Есть опасения, что как только AGI достигнет определенного уровня автономии и возможностей, его станет невозможно сдерживать или контролировать, что приведет к сценариям, в которых действия ИИ невозможно будет предсказать или обратить вспять.
Вопросы о сроках создания AGI часто ставят профессионалов в области ИИ в неловкое положение, вынуждая их делать предположения о «конце человечества». Однако Хуанг поделился своим мнением, указав, что прогнозирование времени появления AGI зависит от его определения. Хуанг сравнил это с определением времени Нового года или прибытием к пункту назначения, подчеркнув важность согласия относительно мер измерения.
Хуанг утверждает, что, если AGI определить как систему, способную превосходить человека на 8% в конкретных тестах, например, юридический экзамен или экзамен по логике, мы можем достичь появление AGI в течение 5 лет. Хуанг подчеркнул важность точного определения AGI для прогнозирования развития технологии.
«Если мы определим, что AGI — это что-то очень конкретное, набор тестов, в которых программа может работать очень хорошо — или, может быть, на 8% лучше, чем большинство людей — я верю, что мы доберемся до этого в течение 5 лет», — объясняет Хуанг.
Также Хуанг обсудил проблему галлюцинаций ИИ, когда системы выдают правдоподобные, но неверные ответы. Он предложил ввести обязательную проверку информации перед формированием ответа. Такой метод, названный «генерацией с расширенным поиском» (retrieval-augmented generation), предполагает сравнение информации с известными фактами и источниками правильных данных.
Подход Хуанга подразумевает, что в критически важных случаях, например, при предоставлении медицинских советов, ИИ должен опираться на несколько источников или признать свою неспособность дать точный ответ. Это отражает стремление к более ответственному и безопасному развитию технологий ИИ.
Напомним, что в феврале Бен Герцель, основатель SingularityNET и один из ключевых популяризаторов концепции общего искусственного интеллекта (AGI), выразил уверенность, что уже в 2025 году может начать работу ранний прототип системы AGI. Герцель Для просмотра ссылки Войдиили Зарегистрируйся AGI, ориентированный на то, чтобы технология служила интересам человечества и не оказалась под контролем крупных корпораций или государств.
Кроме того, гендиректор Meta* Марк Цукерберг заявил, что ко Для просмотра ссылки Войдиили Зарегистрируйся с открытым исходным кодом. Цукерберг объединяет две свои команды по исследованию ИИ, FAIR и GenAI, чтобы создать полноценный общий искусственный интеллект, открыть его и сделать широкодоступным.
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.</span>
На ежегодной конференции разработчиков Nvidia GTC Дженсен Хуанг Для просмотра ссылки Войди
Хуанг выразил недовольство по поводу частых вопросов об AGI (Artifical General Intelligence), особенно касающихся его потенциального влияния на будущее человечества и возможность контроля над такой технологией. Основная проблема заключается в непредсказуемости процессов принятия решений AGI, которые могут не совпадать с человеческими ценностями или приоритетами.
Есть опасения, что как только AGI достигнет определенного уровня автономии и возможностей, его станет невозможно сдерживать или контролировать, что приведет к сценариям, в которых действия ИИ невозможно будет предсказать или обратить вспять.
Вопросы о сроках создания AGI часто ставят профессионалов в области ИИ в неловкое положение, вынуждая их делать предположения о «конце человечества». Однако Хуанг поделился своим мнением, указав, что прогнозирование времени появления AGI зависит от его определения. Хуанг сравнил это с определением времени Нового года или прибытием к пункту назначения, подчеркнув важность согласия относительно мер измерения.
Хуанг утверждает, что, если AGI определить как систему, способную превосходить человека на 8% в конкретных тестах, например, юридический экзамен или экзамен по логике, мы можем достичь появление AGI в течение 5 лет. Хуанг подчеркнул важность точного определения AGI для прогнозирования развития технологии.
«Если мы определим, что AGI — это что-то очень конкретное, набор тестов, в которых программа может работать очень хорошо — или, может быть, на 8% лучше, чем большинство людей — я верю, что мы доберемся до этого в течение 5 лет», — объясняет Хуанг.
Также Хуанг обсудил проблему галлюцинаций ИИ, когда системы выдают правдоподобные, но неверные ответы. Он предложил ввести обязательную проверку информации перед формированием ответа. Такой метод, названный «генерацией с расширенным поиском» (retrieval-augmented generation), предполагает сравнение информации с известными фактами и источниками правильных данных.
Подход Хуанга подразумевает, что в критически важных случаях, например, при предоставлении медицинских советов, ИИ должен опираться на несколько источников или признать свою неспособность дать точный ответ. Это отражает стремление к более ответственному и безопасному развитию технологий ИИ.
Напомним, что в феврале Бен Герцель, основатель SingularityNET и один из ключевых популяризаторов концепции общего искусственного интеллекта (AGI), выразил уверенность, что уже в 2025 году может начать работу ранний прототип системы AGI. Герцель Для просмотра ссылки Войди
Кроме того, гендиректор Meta* Марк Цукерберг заявил, что ко Для просмотра ссылки Войди
<span style="font-size: 8pt;">* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.</span>
- Источник новости
- www.securitylab.ru