NVIDIA 推出安全可信的AI智能体开发利器:NIM Al Guardrail微服务
近日,智东西报道了NVIDIA(英伟达)在国际消费电子展CES 2025上发布了一系列AI新品后,最新推出了一款用于开发安全、可信的AI智能体的工具——NVIDIA NIM Al Guardrail微服务。这款工具旨在解决企业在开发AI智能体时面临的信任、物理安全、网络安全和合规性等关键问题。
AI智能体,即生成式AI的重要发展方向之一,有望成为能够完成各种任务的“知识机器人”,大幅提升全球数十亿知识工作者的生产力。通过使用NIM微服务,开发的AI智能体将参考特定语境准则,做出安全、适当的回答,并增强对越狱企图的抵御能力。这些智能体可广泛应用于汽车、金融、医疗、制造和零售等行业的客户服务中,提高客户满意度和信任度。
提升AI智能体的安全性和可控性
为了确保AI智能体在扩展业务流程中的安全性,NVIDIA推出了三款全新的NIM微服务,帮助AI智能体在大规模运行的同时保持受控行为:
1. 安全NIM微服务:防止AI生成有偏见或有害的,确保输出符合道德标准。
2. 话题控制NIM微服务:将对话聚焦在经过审核的话题上,避免离题或不当。
3. 越狱检测NIM微服务:增加对越狱企图的防护,确保AI在对抗性场景中的完整性。
这些微服务是高度优化的轻量级小语言模型,能够在资源有限或分布式环境中高效运行,适用于医疗、汽车、制造等行业。
发布高质量安全数据集与开源工具
NeMo Guardrails是NVIDIA NeMo平台的一部分,旨在帮助企业提高大语言模型应用的安全性和可控性。它提供了一个强大的AI系统构建框架,可以在不影响安全和性能的情况下进行大规模部署。NVIDIA还发布了Aegis安全数据集,包含超过35,000个经过人工标注的数据样本,已在Hugging Face网站上公开发布。
此外,NVIDIA Garak是一款由NVIDIA Research团队开发的开源套件,用于大语言模型和应用漏洞扫描。开发者可以使用Garak测试安全保障模型,发现并解决潜在弱点,提高模型的稳健性和安全性。
行业应用实例
多家行业领导企业已经在使用NVIDIA的NeMo Guardrails来保护AI应用的安全。例如:
– Amdocs:通过集成NeMo Guardrails,增强了其amAIz平台的可信AI功能,保障代理式体验的安全性、可靠性和可扩展性。
– Cerence AI:为车载助手提供符合语境的安全交互,过滤有害或不友善的请求。
– 劳氏公司(Lowe’s):利用生成式AI巩固店员的专业知识,提高客户满意度和可靠性。
– Taskus、Tech Mahindra、Wipro:将NeMo Guardrails集成到解决方案中,为企业客户提供更加安全、可靠、可控的生成式AI应用。
结语:迎接企业AI Agent浪潮
作为全球AI计算巨头,NVIDIA认为AI Agent浪潮即将到来。NVIDIA正通过引入NIM微服务和NeMo Guardrails平台,推动AI Agent在保持正轨的前提下走向更多部署和生产。这将为企业提供增加对AI agent控制力度和信任度的有效工具,确保AI应用程序在不同行业中安全、合乎道德且有效地运行。
本文来源: 智东西【阅读原文】