NVIDIA 与 SAP 联手:企业 AI Agent 终于有了安全护栏

行业快讯

NVIDIA 在 SAP Sapphire 大会上宣布与 SAP 深化合作,推出企业级 AI Agent 安全治理体系。通过 NVIDIA Agent Toolkit 和 NIM 微服务,企业可以在本地部署超 10 万个模型,同时保持数据控制权和合规性。

NVIDIA 与 SAP 联手:企业 AI Agent 终于有了安全护栏

黄仁勋又给企业 AI 部署难题开了一剂药方。

5 月 12 日,NVIDIA 在 SAP Sapphire 大会上宣布与 SAP 扩大合作,共同构建企业级专用 AI Agent 安全与治理体系。黄仁勋通过视频连线出现在 SAP CEO Christian Klein 的主题演讲中,宣布这一消息。核心内容是:让企业能够安全地运行专用 AI Agent,同时保持对数据的完全控制和合规性。

这不是两家公司第一次合作。早在 2024 年 3 月,SAP 就宣布将生成式 AI 整合到 SAP Datasphere 和 SAP Business Technology Platform 中。但这次合作的重点从"能用 AI"转向了"安全用 AI"——这正是当下企业最焦虑的问题。

企业部署 AI Agent 的真实困境

过去一年,AI Agent 从概念走向落地,但企业 CTO 们发现:让 Agent 跑起来容易,让它在合规框架内跑起来难。

问题出在哪?首先是数据主权。大多数通用 AI 服务要求数据上传到云端,这对金融、医疗、制造业来说是红线。其次是责任归属。当 Agent 做出错误决策——比如自动批准了一笔不该批的采购,或者泄露了客户隐私信息——谁来负责?第三是模型选择。不同业务场景需要不同模型,但企业 IT 部门不可能为每个模型单独搭建基础设施。

NVIDIA 的 Agent Toolkit 就是针对这些痛点设计的。这是一个开源工具栈,帮助企业在本地环境中构建、测试和部署 AI Agent,同时保持对数据流、模型行为和访问权限的完全控制。

NVIDIA NIM 微服务:让 10 万个模型"即插即用"

这次合作的技术核心是 NVIDIA NIM(NVIDIA Inference Microservices)微服务。简单说,NIM 是一套标准化的推理容器,可以把各种大模型打包成统一接口的微服务,部署到企业自己的基础设施上。

NVIDIA 生成式 AI 企业软件副总裁 Kari Briski 的说法很直白:"NIM 微服务提供优化的推理性能、可移植性和企业级支持,帮助客户在 AI 开发和部署的每个阶段加速创新。"

关键数字是"超过 10 万个模型"。SAP 通过集成 NIM 微服务,现在可以支持部署超过 10 万个不同的大模型——从通用的 GPT、Claude,到垂直领域的专用模型,再到企业自己微调的私有模型。这意味着一家德国制造企业可以用本地部署的德语财务模型处理账务,同时用另一个模型优化供应链,而不需要把数据发到美国的云服务器上。

SAP 机器学习副总裁 Markus Noga 在采访中强调:"我们的客户需要在本地市场和行业的特定需求下使用 AI。NVIDIA NIM 让我们能够在 SAP Business AI 上运行本地模型,在本地基础设施上运行。"

安全治理体系:不只是技术问题

技术栈只是一半,另一半是治理框架。NVIDIA Agent Toolkit 内置了几个关键的安全机制:

1. 沙箱隔离
每个 Agent 运行在独立的沙箱环境中,限制其访问范围。比如一个负责客户服务的 Agent 只能访问 CRM 数据库,无法触及财务系统。

2. 审计日志
所有 Agent 的决策和操作都会被记录,包括调用了哪些数据、执行了什么操作、基于什么逻辑做出决策。这不仅是为了事后追溯,也是为了满足 GDPR、HIPAA 等合规要求。

3. 人工审批节点
对于高风险操作(比如超过一定金额的采购、修改关键配置),Agent 必须提交人工审批,而不是自动执行。

4. 模型版本管理
企业可以锁定特定版本的模型,避免上游模型更新导致的行为变化。这对金融、医疗等强监管行业尤其重要——你不能让一个 Agent 今天批准贷款的逻辑和明天不一样。

这些机制听起来像是给 Agent"戴上镣铐",但实际上是让企业敢于放手使用 AI。没有这些护栏,大多数企业只能把 Agent 限制在低风险的边缘场景,比如客服聊天机器人。有了这些护栏,Agent 才能真正进入核心业务流程。

SAP Business AI:从 ERP 到 AI 原生企业

SAP 这边的动作也很明确:把 AI 能力深度嵌入到 SAP Business AI 平台中。这不是简单地在 ERP 系统上加一个聊天窗口,而是让 AI 成为业务流程的原生组件。

举个例子:一家零售企业的采购经理以前需要手动分析销售数据、库存水平、供应商报价,然后决定下单数量。现在,一个专用 Agent 可以实时监控这些数据,自动生成采购建议,甚至在经理授权后直接下单。这个 Agent 运行在企业自己的数据中心,使用的是针对零售行业微调的模型,所有决策逻辑都符合公司的采购政策。

SAP 的策略是"本地优先"。Christian Klein 在主题演讲中反复强调"local business AI"——不是因为排斥云服务,而是因为很多企业的数据和业务逻辑根本不能离开本地环境。NVIDIA NIM 的价值就在于,它让本地部署的体验接近云服务的便捷性。

这对开发者意味着什么?

如果你是企业 AI 应用的开发者,这次合作带来几个实际的变化:

模型选择自由度大幅提升
以前,企业 IT 部门通常只支持一两个"官方认证"的模型,因为每增加一个模型就要重新搭建推理环境、调整 API 接口、做安全评估。现在,NIM 微服务把这些工作标准化了,你可以根据具体任务选择最合适的模型,而不是迁就基础设施。

本地部署不再是噩梦
传统的本地部署需要处理 CUDA 版本、驱动兼容性、模型格式转换等一堆琐事。NIM 容器把这些都打包好了,你只需要关心业务逻辑。

合规性开箱即用
审计日志、访问控制、数据加密这些合规要求,以前需要自己从头实现。现在 Agent Toolkit 提供了现成的框架,你只需要配置策略,而不是写代码。

但也有代价
这套体系的学习曲线不低。你需要理解 SAP 的业务对象模型、NVIDIA 的推理优化技术、企业的治理策略。这不是"调个 API 就能用"的简单集成,而是需要深入理解企业架构的系统工程。

竞争格局:微软、谷歌在做什么?

企业 AI Agent 安全治理不是 NVIDIA 和 SAP 独有的战场。微软的 Copilot Studio 提供了类似的 Agent 构建工具,集成了 Azure 的安全和合规能力。谷歌的 Vertex AI Agent Builder 也在强调企业级控制。

但 NVIDIA 的优势在于硬件和软件的垂直整合。NIM 微服务是专门为 NVIDIA GPU 优化的,推理性能比通用容器高 30-50%。而且 NVIDIA 不绑定特定的云平台,企业可以在自己的数据中心、私有云、甚至边缘设备上部署,这对数据敏感型企业很有吸引力。

SAP 的优势则在于企业客户基础。全球 87% 的财富 500 强企业使用 SAP 系统,这些企业的核心业务数据都在 SAP 的数据库里。把 AI 能力直接嵌入 SAP,比让企业把数据导出到第三方 AI 平台要自然得多。

开源策略:为什么 NVIDIA 要开源 Agent Toolkit?

NVIDIA Agent Toolkit 是开源的,这在企业级 AI 工具中并不常见。黄仁勋的逻辑很清楚:工具开源,但推理性能优化是闭源的。

企业可以免费使用 Agent Toolkit 构建应用,但要获得最佳性能,还是需要 NVIDIA 的 GPU 和 NIM 微服务。这是一种"剃刀-刀片"模式:工具免费,但要用好工具,你得买我的硬件和软件服务。

开源还有另一个好处:社区贡献。企业开发者会根据自己的需求扩展 Toolkit,这些扩展最终会反哺到 NVIDIA 的产品路线图中。微软的 Semantic Kernel、LangChain 都是类似的策略。

落地时间表:什么时候能用上?

SAP 和 NVIDIA 没有公布具体的 GA(正式发布)时间,但从技术成熟度看,NIM 微服务已经在生产环境中运行,Agent Toolkit 也已经开源。预计 2026 年下半年,SAP Business AI 的客户就能开始试用集成了 NVIDIA 能力的 Agent 功能。

对于想要尝鲜的开发者,NVIDIA Agent Toolkit 已经可以在 GitHub 上获取(虽然具体仓库地址没有在官方新闻中公布,但通常会在 NVIDIA 的开发者门户上找到)。SAP 的客户可以通过 SAP Business Technology Platform 访问早期预览版本。

写在最后:企业 AI 的"可控性"拐点

这次合作的意义不在于技术突破——Agent、NIM、沙箱隔离都不是新概念——而在于把这些能力整合成一个企业可以信任的完整体系。

过去两年,企业对 AI 的态度经历了从狂热到冷静的转变。2023 年,每个公司都在喊"AI 转型",但到了 2024 年,大家发现真正落地的应用寥寥无几。原因不是技术不行,而是企业不敢用——数据安全、合规风险、责任归属,这些问题没解决,AI 就只能停留在 demo 阶段。

NVIDIA 和 SAP 的这套方案,本质上是在回答一个问题:如何让企业在不失控的前提下,释放 AI 的生产力?答案是:给 AI 加上护栏,但不要把它关进笼子。

对于开发者来说,这意味着企业 AI 应用的开发范式正在从"能跑就行"转向"可控地跑"。未来的企业 AI 工程师,不仅要懂模型调优,还要懂治理框架、合规要求、风险管理。这是一个更复杂,但也更有价值的技能栈。

至于 OpenAI Hub 这样的 API 聚合平台,在这个趋势下的定位也会更清晰:对于需要快速验证想法、不涉及敏感数据的场景,云端 API 依然是最高效的选择。但对于核心业务流程,企业会越来越倾向于本地部署。两种模式会长期共存,服务于不同的需求场景。

企业 AI 的下半场,拼的不是谁的模型更大,而是谁能让企业用得更放心。