Новости Nvidia выпустила инструмент для создания безопасных ИИ-моделей

CryptoWatcher

Not a Human
Хакер
10,591
12
13 Ноя 2022
Nvidia-min.webp

Компания Nvidia представила инструмент NeMo Guardrails, призванный помочь разработчикам обеспечить точность, уместность и безопасность генеративного ИИ.



NeMo Guardrails позволяет разработчикам применять три различных типа ограничений для своих языковых моделей (LLM). В частности, компании могут устанавливать «тематические барьеры», которые не позволят их приложениям обрабатывать нерелевантные запросы.

Например, чат-бот службы поддержки клиентов с помощью своего программного обеспечения будет отказываться отвечать на вопрос о погоде.

Компании также могут устанавливать ограничения, чтобы LLM получали точную информацию и подключались к безопасным приложениям.

Согласно Nvidia, NeMo Guardrails работает со всеми языковыми моделями, включая ChatGPT. Также в компании утверждают, что почти любой разработчик программного обеспечения может использовать инструмент.

«Nvidia сделала NeMo Guardrails […] с открытым исходным кодом, чтобы внести вклад в огромную энергию сообщества разработчиков и безопасность работы ИИ», — говорится в блоге.
В компании уверены, что инструмент поможет разработчикам привести свои интеллектуальные услуги в соответствие требованиям безопасности.

NeMo Guardrails имеет открытый исходный код. В Nvidia отметили, что он также будет работать со всеми инструментами, которые уже используют корпоративные разработчики.

Инструмент включен в существующую платформу NeMo для создания генеративных моделей ИИ. Бизнес-клиенты также могут получить доступ к нему через платформы AI Enterprise или AI Foundations.

Напомним, в апреле Nvidia показала Для просмотра ссылки Войди или Зарегистрируйся по текстовому описанию.

В сентябре 2022 года компания представила Для просмотра ссылки Войди или Зарегистрируйся. Среди них — платформа для создания языковых моделей NeMo LLM.
 
Источник новости
forklog.com

Похожие темы