Компания Nvidia представила инструмент NeMo Guardrails, призванный помочь разработчикам обеспечить точность, уместность и безопасность генеративного ИИ.
NeMo Guardrails позволяет разработчикам применять три различных типа ограничений для своих языковых моделей (LLM). В частности, компании могут устанавливать «тематические барьеры», которые не позволят их приложениям обрабатывать нерелевантные запросы.
Например, чат-бот службы поддержки клиентов с помощью своего программного обеспечения будет отказываться отвечать на вопрос о погоде.
Компании также могут устанавливать ограничения, чтобы LLM получали точную информацию и подключались к безопасным приложениям.
Согласно Nvidia, NeMo Guardrails работает со всеми языковыми моделями, включая ChatGPT. Также в компании утверждают, что почти любой разработчик программного обеспечения может использовать инструмент.
В компании уверены, что инструмент поможет разработчикам привести свои интеллектуальные услуги в соответствие требованиям безопасности.«Nvidia сделала NeMo Guardrails […] с открытым исходным кодом, чтобы внести вклад в огромную энергию сообщества разработчиков и безопасность работы ИИ», — говорится в блоге.
NeMo Guardrails имеет открытый исходный код. В Nvidia отметили, что он также будет работать со всеми инструментами, которые уже используют корпоративные разработчики.
Инструмент включен в существующую платформу NeMo для создания генеративных моделей ИИ. Бизнес-клиенты также могут получить доступ к нему через платформы AI Enterprise или AI Foundations.
Напомним, в апреле Nvidia показала Для просмотра ссылки Войди
В сентябре 2022 года компания представила Для просмотра ссылки Войди
- Источник новости
- forklog.com