发布前先过白宫这关:微软谷歌xAI都签了

行业快讯

美国商务部下属CAISI与微软、谷歌DeepMind、xAI达成新协议,三家公司将在前沿模型公开发布前开放权限供政府进行国家安全评估,OpenAI和Anthropic的原有协议也被重新谈判。

5月5日,美国商务部下属的人工智能标准与创新中心(CAISI)官宣了一份把整个前沿 AI 圈都牵进去的协议:微软、Alphabet 旗下的谷歌 DeepMind、以及马斯克的 xAI,都同意在下一代模型对外发布之前,把权限先交给美国政府做一轮国家安全评估。

这不是自愿性的"安全倡议",也不是象征性的备忘录。按 CAISI 的说法,政府拿到的是模型发布前的实际访问权,包括做"有针对性的研究"——意思是可以上手跑评测、探边界、看能力上限。更关键的一点是,开发者还会向 CAISI 提交移除了安全护栏的版本,专门用来排查国家安全层面的风险。这个细节很多报道一笔带过,但它才是整件事的分量所在。

美国商务部大楼外景,配文"AI模型发布前,先交钥匙"

一个改名字的机构,权力在悄悄扩大

CAISI 这个名字有点陌生,但它的前身你一定听过——AI Safety Institute(AISI),2023 年拜登任内设立。特朗普政府上台后把它重新挂牌,改成了现在的名字,"安全"两个字换成了"标准与创新",政治味道立刻变了。

但工作内容不仅没缩水,反而扩权了。2024 年它只和 OpenAI、Anthropic 有预发布评估合作,现在一口气把微软、谷歌、xAI 都拉了进来,还顺手把 OpenAI 和 Anthropic 的旧协议重新谈了一遍,"以更好契合特朗普 AI 行动计划的优先事项"。官方声明里这句话很外交辞令,翻译过来就是:游戏规则换人定了。

到目前为止,CAISI 已经完成了 40 多次模型评估,其中不少是尚未公开发布的前沿模型。考虑到 2024 年才开张,这个密度说明它已经是事实上美国政府和前沿实验室之间最主要的技术接口。

有意思的是,这个机构目前在法律上并没有正式地位。它是行政权力下的产物,靠行政协议运转。已有议员在推动立法把它固定下来,但在立法通过之前,它的存在本身就在不断扩展边界。

Mythos 把所有人吓了一跳

这份协议的时间点不是巧合。过去几周,Anthropic 的 Mythos 系统在圈内掀起了一轮不小的讨论,华盛顿的官员和美国企业界普遍担心一件事:这一代模型对网络攻击能力的加成,已经到了需要政府提前介入的程度。

过去谈 AI 风险,更多停留在"可能生成有害内容""可能被滥用于诈骗"这种层面。但当模型开始展现出协助发现漏洞、编写攻击链、自动化渗透任务的能力时,威胁模型就完全变了——这不再是内容安全问题,而是具备攻击性的工具问题。

CAISI 主任 Chris Fall 的表态说得相对克制:"要真正理解前沿 AI 技术及其对国家安全的潜在影响,独立、严谨、量化的评估体系至关重要。"但结合同期动作看,美国政府显然觉得事情已经不能只靠企业自律了。

另一条线:国防部的七家供应商,没有 Anthropic

就在 CAISI 宣布协议的前一周,美国国防部宣布与七家 AI 企业达成合作,把它们的技术部署进国防部的涉密网络。这是军方 AI 供应商队伍的一次明显扩容。

耐人寻味的是,Anthropic 不在这份名单里。原因也不复杂:Anthropic 正在就军方使用其 AI 工具的权限范围和安全约束问题与国防部拉锯。Anthropic 一向把"可接受使用政策"作为公司身份的一部分,对军事用途有自己的红线。当这条红线撞上国防部的需求清单,结果就是被排除在涉密网络合作之外。

两条新闻放在一起看,美国政府对前沿 AI 的策略已经很清楚了:

  • 入口端:通过 CAISI 做发布前审查,掌握能力基线
  • 应用端:通过国防部合同锁定可用于涉密场景的供应商
  • 合规端:通过重谈协议把企业拉到行政议程里

这是一套组合拳,不是单点动作。

对企业来说,这笔账怎么算

从微软、谷歌、xAI 的角度看,签这份协议其实没有太多选择余地。

一方面,前沿模型的发布窗口越来越紧,几乎每季度都有新版本。任何一次被政府点名"安全问题"都可能拖慢节奏。提前让 CAISI 看过一遍,等于把潜在摩擦前置消化。

另一方面,美国政府采购和国防合同是一块越来越大的蛋糕。OpenAI、Anthropic 早就把政府业务跑通了,微软和谷歌在云侧早已深度绑定,xAI 则需要通过这类合作刷存在感。不签的成本远高于签的成本,这个账任何一家 CFO 都算得清。

真正有意思的问题是:预发布评估会在多大程度上影响模型的实际形态?

假设 CAISI 在某次评估中发现某个前沿模型对生物武器合成任务的辅助能力显著高于基线,它有权要求厂商补强护栏、推迟发布,甚至调整训练数据分布吗?现有协议是行政性的,没有硬性约束力,但在实操层面,"政府不放心"这四个字足以让一家大厂推迟一次发布。

示意图——前沿模型从训练到发布的流程,中间多出一个"CAISI评估"环节

开发者视角:这事重要吗

短期看,调用 API 的开发者感觉不到太大变化。模型照发,接口照调,文档照更新。但有几个中长期影响值得放进观察列表:

  1. 发布节奏可能变慢:尤其是涉及 agentic 能力、代码执行、安全研究类能力的版本,预审查环节可能吃掉几周。
  2. 能力曲线会被"修剪":某些被政府判定为高风险的能力,可能在公开版本里被削弱或开关化,enterprise 版本和 consumer 版本的差距会拉大。
  3. 开源与闭源的分叉会更明显:前沿闭源模型走政府审查通道,开源阵营则继续在 Hugging Face 上自由流动。两者在能力、合规、可用场景上的差异会形成两条并行的生态。
  4. 国别供应会更复杂:美国厂商把模型能力先交给美国政府看,意味着部分能力可能面临出口管控调整,海外开发者调用时需要更关注地域可用性。

对国内开发者来说,这类消息带来的直接提醒是:多模型冗余越来越重要。任何单一供应商在政策环境下都有被调整节奏的可能,调用层留一点切换余地是理性选择。这也是 OpenAI Hub 这类聚合平台的价值所在——一个 Key 切 GPT、Claude、Gemini、Grok、DeepSeek,政策风吹草动时至少不会被卡在一条路上。

一个尚未回答的问题

CAISI 声明里最值得玩味的一句话,是把合作描述为"扩大以公共利益为导向的工作规模"。但"公共利益"这个词在一个没有法律授权、靠行政协议运作的机构手上,解释空间相当大。

目前为止,它的工作是评估模型、给出风险报告,偏技术中立。但一旦立法把它固定下来,或者特朗普政府真的如《纽约时报》所报道的那样,通过行政命令建立一套针对 AI 工具的政府审查流程,CAISI 的角色就会从"评估者"滑向"审批者"。这是两个完全不同的位置。

微软、谷歌、xAI 今天签下的,可能不只是一份预发布访问协议,而是一条未来几年 AI 合规轨道的第一根枕木。值得追着看。

参考来源