今天(5 月 6 日)彭博社 Mark Gurman 扔出一条够分量的料:苹果决定在今秋的 iOS 27、iPadOS 27 和 macOS 27 上,把 Apple Intelligence 的底层模型选择权交给用户——想用 Gemini 用 Gemini,想用 Claude 用 Claude,系统级别支持,不再局限于 Siri 那一小块。
这事的潜台词很直接:2024 年 WWDC 上苹果拉 OpenAI 站台时那份独家合作,撑了不到两年,要散伙了。

这次开放的边界比想象中更大
先把事情说清楚。过去一年多 Apple Intelligence 里的"第三方 AI"其实只有一个选项:ChatGPT。它出现在 Siri 转交、写作工具(Writing Tools)和图像操场(Image Playground)里,用户能不能换别的?不能。
今年 3 月 Gurman 曾报过一轮,当时的口径是 Siri 会支持切换成 Gemini、Claude 这类外部聊天机器人。听上去像是把 Siri 的"转交"对象从 ChatGPT 扩成了一个菜单,仅此而已。
今天这条料把范围又推了一截。iOS 27 内部版本里,苹果把这套机制命名为 Extensions,覆盖的不只是 Siri,而是整个 Apple Intelligence——写作工具里的润色改写、Image Playground 里的图像生成,都可以指定用第三方模型跑。开发者已经在测试版里翻到了这条系统提示:
"Extensions 允许你通过 Siri、写作工具、Image Playground 等 Apple Intelligence 功能,按需访问已安装应用的生成式 AI 能力。"
用户路径也很清晰:App Store 里装一个支持 Extensions 的 AI 应用(Claude、Gemini 之类),然后去"设置 → Apple Intelligence 与 Siri → 扩展"里勾选偏好模型。苹果还会在 App Store 开辟一个专门的 AI 应用专区,方便用户找。
值得单独提一句的是 Siri 的声线。Gurman 说苹果会允许用户给不同的模型配不同的 Siri 音色——你问 Claude 的时候是一个声音,切到 Gemini 又是另一个声音。这个设计挺有意思,算是给黑盒里的模型切换加了个明显的感官标识,用户不会迷糊到底在跟谁说话。
从"独家"到"插件化",苹果的账算得很精
2024 年苹果选 ChatGPT 做独家,当时内部其实有分歧。前 Apple AI 负责人 John Giannandrea 更倾向 Google,理由是对 OpenAI 的长期竞争力存疑。苹果最后拍板选了 OpenAI,看中的是当时 GPT-4 的综合体验。
两年下来,这笔合作没达到双方预期。Gurman 的说法是"实际使用量低于两家公司的预期"——翻译一下就是:iPhone 用户并没有那么频繁地把问题转交给 ChatGPT。同时,苹果和 OpenAI 之间的分歧在快速扩大,OpenAI 正在从苹果挖 AI 硬件方向的工程师,双方关系从蜜月进入防备。
对苹果来说,继续抱着一家独家,政治上也不合时宜。马斯克的 xAI 早就起诉苹果和 OpenAI 合谋垄断 AI 市场,监管层面对这种排他性集成的敏感度只会越来越高。把选择权塞回用户手里,是最干净的解法。
商业上这一步也相当顺。苹果不用再为每家 AI 服务单独谈合作了——以前是挨家挨户谈 API、分成、责任归属,现在变成 App Store 的标准化玩法:你按 Extensions 的规范做一个应用提交上架,通过审核就能接入。苹果从 AI 订阅里抽 App Store 那一刀,利润结构比独家合作更舒服。
换句话说,苹果把 AI 模型这件事,做成了和输入法、支付一样的"可扩展系统能力"。
对 OpenAI、Google、Anthropic 三家分别意味着什么
OpenAI 是最直接的受损方。独家地位没了,意味着它不再能默认吃到全球近 15 亿 iPhone 用户的入口流量。好消息是,ChatGPT 作为最早接入、用户心智最稳固的选项,大概率仍是默认推荐。但"默认"和"独家"是两回事——前者可以被一次设置切换抹掉。
Google 和 Anthropic 是明显的受益方。Gurman 点名苹果目前正在和这两家做内部集成测试。Google 这边其实还有另一条暗线:苹果正在和 Google 合作,用 Gemini 模型重建下一代 Siri 的底层技术(项目代号 Campo)。也就是说,Gemini 在 iOS 27 里可能同时扮演两个角色——既是可选的 Extension,也是新 Siri 的底座。这个双重身份比单纯做个备选强多了。
Anthropic 拿到 iPhone 系统级入口,是个相当大的利好。Claude 一直以代码和长文本见长,但在 C 端用户覆盖上比 OpenAI 差一个量级,系统级集成是它补这个短板最快的路径。
至于 Grok、Perplexity、Meta AI、Copilot 这些——它们的 App 都已经在苹果平台上了,按规范接 Extensions 理论上没有门槛。苹果目前没明确说审批机制是否有额外门槛,后续值得盯。
但有几个问题苹果还没回答
一,责任归属。Gurman 提到苹果会在 iOS 27 正式版里明确提醒用户:第三方模型生成的内容,苹果不负责。这条免责声明本身没毛病,但实际体验里,一个润色后的邮件出了事实错误、一张生成的图片涉及版权争议,用户第一反应还是会骂 iPhone。模型是插件,品牌伤害是苹果的。
二,隐私口径怎么统一。Apple Intelligence 当初主打的卖点之一是 Private Cloud Compute——自研芯片加密、不留存用户数据。换成 Gemini 或 Claude 之后,请求会走谁的服务器、日志怎么处理、训练数据如何隔离?苹果需要给一套统一且可验证的隐私标准,否则 Extensions 就会变成 Apple Intelligence 里一块说不清楚的飞地。
三,默认模型怎么选。这是商业上最敏感的一块。Google 每年付苹果上百亿当 Safari 默认搜索引擎,AI Extensions 会不会走同样的商业模式?如果会,"独家"就是换了个壳子回来。
四,国行版本。这是国内开发者和用户最关心的——iOS 27 在国行上的 Apple Intelligence 走什么方案,Extensions 对接的是百度、阿里还是谁,目前一个字都没有。参考国行版 Apple Intelligence 此前对接百度的曲折进度,Extensions 的国行落地恐怕会比海外晚不少。
对开发者的影响:系统级 AI 入口第一次被打开
站在开发者视角,Extensions 这套机制最有意思的点不是"用户能换模型",而是系统级 AI 入口第一次向第三方开放。
以前你做一个 AI 应用,用户要用得打开你的 App。现在只要你通过 Extensions 接入,用户在任何支持写作工具的输入框里调用的都可能是你的模型。这个分发位置的价值,类似 iOS 8 当年开放第三方键盘,但量级更大,因为 AI 的使用频次比输入法还高。
接入规范苹果还没公布完整细节,但从已知信息推测,大概率会是一套类似 App Intents 的声明式协议——App 声明自己能处理哪些任务(文本生成、图像生成、改写润色等),系统按用户选择路由请求。
这也意味着,2026 年下半年 WWDC 之后,iOS 生态里会冒出一波专门为 Extensions 优化的 AI 应用——轻量、任务导向、系统级触发。对独立开发者来说,这是继 Shortcuts、Widgets、App Intents 之后又一个系统级机会窗口。
顺带提一句,如果你是开发者,想在一个接口里同时测试 GPT、Claude、Gemini、DeepSeek 这些模型,看看哪个更适合接到自己的产品里——OpenAI Hub(openai-hub.com)就是干这个的,一个 Key 调所有主流模型,国内直连,兼容 OpenAI 格式,省去分别注册和对接的麻烦。在 iOS 27 落地之前,先把模型选型这件事跑通是明智的。
一个更大的判断
苹果这次转向,其实承认了一件事:通用大模型这层,它自己短期内打不过头部玩家。与其硬撑自研,不如把这一层做成可插拔的系统能力,自己守住终端、隐私、分发和体验这四个阵地。
这不是苹果第一次这么干。搜索引擎它没自己做,交给 Google;地图它做了,但也允许第三方接入;现在 AI 模型走上了同一条路。
区别在于,AI 这次不是一个功能,而是未来 10 年操作系统的底座。苹果把底座的一半交给别人,是务实,也是让步。真正的看点是秋天 WWDC 上 Siri 独立 App 和新交互的发布——那才是苹果自己要守住的东西。
iOS 27 的 Extensions 只是开胃菜。