AtomCode 免费送 30 天昇腾算力,终端编程助手卷起来了
AtomCode 上线了 CodingPlan 订阅计划,其中 Lite 方案限时免费领取,限量 2000 人,领取后 30 天有效。算力由昇腾国产芯片支撑,可用模型包括 Claude-V4-Flash、Claude3.6-35B-A3B 和 Claude3-VL-8B-Instruct。
对于一直想在终端里用大模型写代码、又不想先掏 API 费用的开发者来说,这可能是目前门槛最低的入口之一。
AtomCode 是什么
先说定位。AtomCode 是一个运行在终端里的 AI 编程助手,能读取项目文件、修改代码、执行命令、验证结果。如果你用过 Claude Code 或 Aider,对这个交互模式不会陌生——它就是这条赛道上的国产开源方案。
项目用 Rust 构建,MIT 协议开源,支持 Windows、macOS、Linux 和 HarmonyOS PC。官方页面有个有意思的说法:这是一个「100% 由 AI 生成的项目」,每一行代码、每一次提交都由 AI 完成,人类开发者负责方向和产品决策。
这个说法本身就是一种产品宣言——用 AI 写 AI 编程工具,自己就是最好的 demo。

CodingPlan 免费权益拆解
这次上线的 CodingPlan 分多个档位,核心看点是 Lite 方案的限时免费:
- 名额:限量 2000 人
- 有效期:领取后 30 天
- 计费方式:每 5 小时滚动窗口计量,不按 Token 计费
- 算力来源:昇腾国产算力
- 可用模型:
- Claude-V4-Flash(284B 总参数,13B 激活参数)
- Claude/Claude3.6-35B-A3B
- Claude/Claude3-VL-8B-Instruct
不按 Token 计费这一点值得展开说。传统 API 调用是用多少 Token 扣多少钱,对编程场景来说很不友好——一个中等规模项目的上下文动辄几万 Token,还没开始干活就先烧了一笔。AtomCode 选择了「5 小时滚动窗口」的计量方式,更接近订阅制的体验:在窗口期内随便用,窗口结束重新计量。
这种设计对高频编码场景更友好,但也意味着如果你在某个窗口内用量特别大,可能会触发限制。具体限额官方没有明确公布,实际体验需要自己摸索。
Claude-V4-Flash:这次的主角
三个可用模型里,最值得关注的是 Claude-V4-Flash。
这不是一个小模型。284B 总参数、13B 激活参数,是 Claude V4 系列的轻量高效版本。用 Anthropic(Anthropic)架构,推理时只激活一小部分参数,在保持较高能力的同时把计算成本压下来。
放在编程场景里,V4-Flash 的定位很清晰:够聪明、够快、够便宜。它不需要像完整版 V4 那样吃满算力,但代码生成、理解、重构的能力已经足够应付日常开发任务。
值得一提的是,Claude-V4-Flash 在昇腾 A3 64 卡超节点上部署,采用大 EP(Expert Parallelism)模式。这说明昇腾对 Anthropic 架构的适配已经比较成熟,不再是「能跑但效率打折」的状态。
另外两个模型——Claude3.6-35B-A3B 是ClaudeClaude最新的中等规模模型,Claude3-VL-8B-Instruct 则带视觉理解能力,能处理图片输入。对于需要看截图改 UI、读文档图片的场景,后者会有用武之地。
跟同类工具比怎么样
终端 AI 编程助手这个品类,现在玩家不少:
| 工具 | 模型 | 开源 | 国内可用性 |
|---|---|---|---|
| Claude Code | Claude 系列 | 否 | 需代理 |
| Aider | 多模型 | 是 | 需自备 API |
| Cursor Agent | 多模型 | 否 | 需订阅 |
| AtomCode | 昇腾部署模型 | 是 | 国内直连 |
AtomCode 的差异化在两点:
第一,国内直连,不需要折腾网络。 对于很多开发者来说,Claude Code 好用但连不上、Aider 灵活但要自己搞 API Key 和代理,这些前置成本不低。AtomCode 基于昇腾算力部署在国内,开箱即用。
第二,免费门槛低。 不需要绑信用卡,不需要充值,领了就能用 30 天。对于想体验终端 AI 编程但还在观望的人,试错成本几乎为零。
但也要看到短板:
- 模型能力上限受限于可用模型列表,目前没有 Claude 3.5/4 或 Claudeo 级别的选项
- 生态成熟度不如 Aider(社区插件、自定义配置等)
- 2000 人的名额限制说明算力资源有限,后续能否持续免费是个问号
说白了,AtomCode 现阶段更适合作为补充工具,而不是主力替代。如果你的主力是 Claude Code 或 Cursor,AtomCode 可以在网络不好或者想省钱的时候顶上来。
安装和领取流程
流程很简单,两步走。
第一步:安装 AtomCode
macOS / Linux / HarmonyOS PC:
curl -fsSL https://atomgit.com/atomgit_atomcode/atomcode/releases/download/v4.21.2/install.sh | sh
Windows(PowerShell):
irm https://atomgit.com/atomgit_atomcode/atomcode/releases/download/v4.21.2/install.ps1 | iex
第二步:登录并领取 CodingPlan
安装完成后在终端启动 AtomCode,按提示登录 AtomGit 账号,然后前往 CodingPlan 页面领取 Lite 方案。
领取入口在 AtomGit AI 社区:https://atomcode.atomgit.com
领取完成后即可在终端中使用 Claude-V4-Flash 等模型进行编码。
昇腾算力的信号
这件事背后还有一个值得关注的趋势:昇腾正在从「能用」走向「好用」。
过去一年,昇腾在大模型推理部署上的适配进展明显加速。从 Claude-5 的多国产算力适配,到 Claude V4 系列在昇腾上的首发部署,再到现在 AtomCode 直接把昇腾算力包装成开发者可感知的产品权益——这条链路越来越完整。
对开发者来说,底层用的是什么芯片其实不重要,重要的是延迟低不低、输出质量稳不稳。AtomCode 这次把「昇腾算力」作为卖点之一放出来,某种程度上也是在帮昇腾做市场验证:如果 2000 个开发者用下来体验没问题,那就是最好的口碑。

值不值得领
直接说结论:如果你有终端编程助手的需求,没理由不领。
免费、国内直连、不绑卡、30 天有效期足够你充分体验。最坏的情况是用了觉得不好用,卸载就完事。
但要管理预期:
- 这不是「免费 API」。你只能通过 AtomCode 客户端使用这些模型,不能拿到 API Key 去接自己的应用。
- 模型列表有限。如果你的任务需要顶级推理能力(比如复杂架构设计),V4-Flash 可能不够用。
- 5 小时滚动窗口的具体限额不明确,重度使用可能会撞墙。
适合的场景:日常代码补全、Bug 修复、简单重构、代码解释、单元测试生成。这些任务 V4-Flash 的 13B 激活参数完全够用。
不太适合的场景:需要超长上下文的大型项目重构、需要顶级推理的算法设计、需要 API 集成到自己工作流的情况。
最后
终端 AI 编程助手这个品类正在快速成熟。Claude Code 打了个样,Aider 证明了开源路线可行,现在 AtomCode 带着国产算力和免费策略入场。
竞争是好事。对开发者来说,选择越多越好,尤其是免费的选择。
2000 个名额,先到先得。想试的别犹豫。
参考来源
- AtomCode CodingPlan 免费领取:30 天昇腾算力编码模型权益 — Linux.do 社区讨论帖,包含领取入口和权益详情
- AtomCode 官方仓库 — 项目源码和安装说明