发生了什么
小米在大模型赛道上又下了一步重棋。
4月28日,小米正式启动 MiMo Orbit 百万亿 Token 创造者激励计划,30天内向全球开发者免费发放总计100万亿Token权益。与此同时,旗舰模型 MiMo-V2.5-Pro 和全模态模型 MiMo-V2.5 以 MIT 协议全球开源,支持免费商用。
更值得开发者关注的是,小米同步上线了 7亿Token的Pro计划,并开放了兼容 OpenAI 和 Anthropic 格式的多模型调用接口。换句话说,你现有的代码几乎不用改,换个 Base URL 就能跑起来。
这不是一次简单的模型发布,而是小米在 API 生态层面的一次系统性铺开。
Pro 计划:7亿Token够干什么
先说数字。7亿Token的Pro计划,听起来很多,但实际够不够用,取决于你怎么用。
做个简单换算:一次标准的 GPT-4 级别对话大约消耗 2000-4000 Token(含上下文),7亿Token大约能支撑 17.5万到35万次完整对话。如果你是个人开发者做原型验证、跑测试,这个额度相当充裕。但如果你在做 Agent 应用,每次任务链动辄消耗数万Token,7亿就没那么经花了。
更关键的一点是——有开发者实测发现,MiMo的计费机制会将 Cache Token(缓存Token)计入消耗总额。这意味着在多轮对话和 Agent 场景下,实际可用量会比预期缩水不少。对于重度依赖上下文缓存的 Agent 应用来说,这是一个需要提前评估的成本因素。
不过话说回来,白送的7亿Token,不薅白不薅。MiMo Orbit 计划总共设了5档权益:
| 权益档位 | Credits 额度 | 适配人群 |
|---|---|---|
| Trial | 500万 | 新用户体验、单次功能测试 |
| Starter | — | 个人开发者日常开发 |
| Pro | 7亿 | 中度开发、原型验证 |
| Enterprise | — | 团队级项目 |
| Ultimate | 最高16亿 | 企业级重度开发 |
申领流程不复杂,直接在小米 MiMo 官网的 Orbit 计划页面注册即可,30天有效期,用完即止。
接口设计:OpenAI 兼容,几乎零迁移成本
这次小米在 API 设计上做了一个聪明的决定:同时兼容 OpenAI 和 Anthropic 两种接口格式。
Base URL 分别是:
- OpenAI 兼容:
https://token-plan-cn.xiaomimimo.com/v1 - Anthropic 兼容:
https://token-plan-cn.xiaomimimo.com/anthropic
这意味着什么?如果你现在的项目用的是 OpenAI SDK,只需要把 base_url 和 api_key 换掉,模型名改成 mimo-v2.5-pro,代码一行不用动就能跑。用 Anthropic SDK 的同理。
对于已经接入 Cursor、Claude Code、OpenClaw、KiloCode 这些主流编程工具的开发者来说,切换成本几乎为零。
可调用的模型列表覆盖了小米当前的全产品线:
文本模型:
mimo-v2.5-pro— 旗舰推理模型,万亿参数,100万上下文mimo-v2.5— 开源基座模型mimo-v2-pro— 上一代旗舰mimo-v2-omni— 全模态模型(文本+视觉+语音)
语音合成模型:
mimo-v2.5-tts— 最新语音合成mimo-v2.5-tts-voiceclone— 声音克隆mimo-v2.5-tts-voicedesign— 声音设计mimo-v2-tts— 上一代TTS
一个接口打通文本生成、多模态理解、语音合成三条线,这在国内大模型厂商里算是比较完整的产品矩阵了。

MiMo-V2.5-Pro:万亿参数到底意味着什么
回顾一下这个模型本身的实力。
MiMo-V2-Pro 在今年3月发布时就引发了不小的震动——它最初以匿名身份 "Hunter Alpha" 在 OpenRouter 上霸榜多天,甚至被人猜测是 DeepSeek V4。揭晓身份后,业界才发现这是小米的手笔。
核心参数:
- 总参数量超过1T(万亿级),激活参数42B
- 100万Token上下文窗口,能一次性吃下整本小说或完整代码仓库
- 在 Artificial Analysis 综合排行榜上位列全球第九、国内第三
- 编程 Agent 能力接近 Claude Opus 4.6,但 API 定价仅为其 1/5
到了4月底发布的 V2.5 版本,模型进一步迭代,并以 MIT 协议开源。这意味着你不仅可以通过 API 调用,还可以自己部署——当然,万亿参数的部署门槛不低,没有几十张高端GPU基本别想。
价格方面,MiMo-V2-Pro 采用分段计价:
| 上下文范围 | 输入价格(每百万Token) | 输出价格(每百万Token) |
|---|---|---|
| 256K 以内 | $1(约¥6.87) | $3(约¥20.62) |
| 256K-1M | $2(约¥13.75) | $6(约¥41.24) |
对比 Claude Opus 4.6 的定价,这个价格确实有竞争力。尤其是在 Agent 场景下,Token 消耗量大,价格差异会被放大。
全模态和TTS:不只是文本游戏
小米这次的野心不止于文本模型。
MiMo-V2-Omni 是一个真正的全模态模型,同时处理文本、图像、视频和音频输入。它不是简单地把几个模型拼在一起,而是在一个统一架构下实现跨模态理解。
几个值得注意的能力:
- 音频理解超过 Gemini 3 Pro,支持超10小时连续长音频
- 图像理解超过 Claude Opus 4.6
- 支持原生音视频联合输入
- 能自主操作手机App完成复杂任务链(比如去小红书做功课,再去京东下单砍价)
定价也很亲民:输入 $0.4/百万Token,输出 $2/百万Token,256K上下文。
MiMo-V2-TTS 则是语音合成方向的重要布局。基于上亿小时语音数据训练,支持多方言(东北话、四川话、河南话、粤语、台湾腔)、多角色、声音克隆,甚至能唱歌。
这三条产品线组合在一起,指向的是同一个目标:系统级原生智能体。小米作为终端厂商,能把大模型、系统权限、生态服务深度整合,这是纯模型公司做不到的。想象一下,一个智能体能看屏幕、听声音、说人话、操作App,这就是小米想做的事。
开发者生态:免费策略背后的算盘
100万亿Token免费发放,这个数字听起来很疯狂,但小米的算盘其实很清楚。
当前大模型 API 市场的格局是:OpenAI 和 Anthropic 占据海外主流,国内则是百模大战尚未分出胜负。对于小米来说,模型能力已经到了第一梯队的门槛(全球前十),但 API 调用量和开发者生态才是真正的护城河。
MiMo-V2-Pro 上线半个月调用量就突破6亿Token,在 OpenRouter 上编程领域市占率超过30%。这个数据说明模型本身有竞争力,但要把这个势头转化为持续的商业价值,需要更多开发者把 MiMo 集成到自己的产品里。
免费Token就是获客成本。7亿Token的Pro计划,按正常定价大约价值几百美元,但如果能换来一个长期付费的开发者客户,这笔账怎么算都划算。
同时,小米还在积极与主流 Agent 框架合作——OpenClaw、OpenCode、KiloCode、Blackbox、Cline 都已经接入。这种生态绑定一旦形成,开发者的迁移成本就会越来越高。
实际体验:几个需要注意的坑
说完好的,也得说说问题。
第一,Cache Token 计费问题。 前面提到了,这是目前开发者反馈最集中的痛点。在 Agent 应用中,模型需要反复读取之前的上下文,这些缓存Token如果都算钱,实际成本会比表面定价高出不少。对于做 Coding Agent 的开发者来说,一个复杂任务可能消耗的Token量是预期的2-3倍。
第二,免费额度有时效性。 30天有效期,过期作废。如果你只是想囤着慢慢用,可能会浪费。建议拿到额度后尽快跑通核心场景的验证。
第三,模型稳定性。 作为相对新的 API 服务,高峰期的响应速度和稳定性还需要时间验证。目前社区反馈整体可用,但偶尔会有延迟波动。
第四,长上下文的实际表现。 虽然标称支持100万Token上下文,但在实际使用中,超长上下文的推理质量是否能保持一致,还需要更多实测数据。这不是小米独有的问题,所有声称支持超长上下文的模型都面临同样的挑战。
竞争格局:小米的位置在哪
把 MiMo 放到整个国内大模型 API 市场里看:
- DeepSeek V4:128K上下文,低成本推理,商用需授权。推理能力强但上下文窗口是短板。
- GLM-5/5.1(智谱):MIT开源,128K上下文,代码能力突出。综合排名略高于MiMo。
- MiniMax-M2.7:综合排名国内第二,但生态开放度不如小米。
- MiMo-V2.5-Pro:万亿参数,100万上下文,MIT开源,价格是Claude的1/5。
小米的差异化优势在于三点:超长上下文(100万)、全模态产品线(文本+视觉+语音)、以及终端厂商的系统级整合能力。劣势则在于 API 服务的成熟度和开发者生态的积累,这些需要时间。
值得一提的是,MiMo 大模型团队的负责人是原 DeepSeek 核心成员罗福莉,业内称为"天才少女"。这个人事背景也解释了为什么 MiMo 在推理和编程能力上进步如此之快。
对开发者的建议
如果你正在做 Agent 相关的开发,MiMo 的 Pro 计划值得一试。理由很简单:
- 免费额度足够做完整的原型验证,不用担心试错成本
- OpenAI 兼容接口意味着迁移成本极低,不满意随时切回去
- 100万上下文窗口在处理大型代码库和长文档时有实际优势
- 全模态能力如果你的场景涉及图像或语音,一个API就能搞定
但也要注意:
- 提前评估 Cache Token 对你场景的成本影响
- 不要把免费额度当成长期方案,验证完就做好付费预算
- 关键业务建议同时保留备选模型,避免单点依赖
大模型 API 市场正在从"谁的模型更强"转向"谁的生态更完整"。小米这次的动作,模型、接口、免费额度、框架合作一起上,打的就是生态牌。至于能不能打赢,就看接下来开发者用脚投票的结果了。
参考来源
- 小米7亿Token Pro Plan 分享帖 — Linux.do 社区讨论(开发者分享 MiMo API Pro 计划额度及可用模型列表)
- LMRing:开源自托管 LLM Arena — GitHub(社区开发者开源的模型对比评测平台)