Claude 会做梦了:Anthropic 给 Agent 加了个后台推理模式

产品更新

Anthropic 为 Claude Managed Agents 推出 Dreaming 功能,让模型在空闲时自主生成思维场景、预演任务路径。同时 Pro 和 Max 用户的 Claude Code 速率限制翻倍。

Claude 会做梦了:Anthropic 给 Agent 加了个后台推理模式

5 月 5 日,Anthropic 给 Claude Managed Agents 上了一个略带文学色彩的新能力——Dreaming(梦境)。字面上听着玄乎,实际做的事其实挺务实:让 Agent 在没有用户输入、处于空闲状态时,自主生成一系列假设场景并在内部把它们走一遍,把推理结果沉淀成可复用的记忆。

同一批更新里还有个对重度用户更直接的好消息——Claude Code 在 Pro 和 Max 套餐下的速率限制直接翻倍。前一条是产品叙事,后一条是真金白银。

Claude Managed Agents 的 Dreaming 功能界面示意

先把 Dreaming 这件事讲清楚

官方博客里 Anthropic 用的措辞很克制,说这是一种 "latent rehearsal"(潜在演练)机制。翻译成人话:当一个 Managed Agent 没在处理请求的时候,它不会真的 idle 掉,而是会基于自己最近处理过的任务、访问过的工具、积累的上下文,自己给自己出题。

具体流程大致是这样:

  • Agent 根据历史任务的模式,采样出若干"可能即将遇到的场景",比如一个客服 Agent 会模拟客户投诉物流、退款纠纷、产品故障这类场景;
  • 对每个场景,它会在内部走一遍完整的推理链,包括调用哪些工具、如何拆解任务、可能卡在哪里;
  • 走完之后,把有价值的中间结论——比如某个 API 的调用模式、某个 edge case 的处理方式——写入自己的长期记忆;
  • 等真实请求来的时候,它已经"预演"过类似情况,响应更快、判断更准。

这事儿之所以被包装成 "Dreaming",是因为它和认知科学里关于睡眠巩固记忆的假说有点像。人睡着的时候大脑会重放白天的经历,把短期记忆变成长期记忆。Claude 做的事在机制上当然完全不同——它是在用自己生成推理 trace 来喂自己——但效果层面有那么点影子。

Anthropic 强调这不是简单的 "后台跑推理烧算力"。Dreaming 是有预算控制的,每个 Agent 有独立的"梦境配额",可以在管理面板里设上限。而且梦境产生的记忆条目会经过一个 self-critique 环节过滤,不会把模型自己幻想出来的假事实当成真知识沉淀下来——至少官方是这么说的。

这玩意儿到底有没有用

我对这类"仿生"叙事一向警惕,但 Dreaming 放在 Agent 这个产品线上是说得通的。

现在的 AI Agent 普遍有一个痛点:冷启动贵。一个刚部署的 Agent,前几十次对话基本都在"学"——学自己可以调哪些工具、学业务里的术语、学用户的偏好。传统做法是靠运行时积累,用多了自然就熟了。但这对 B 端客户很不友好:企业买一个 Agent 产品,希望第一天就能干活,不是养一个月才见效。

Dreaming 的产品意图,说白了就是把这个"养"的过程搬到后台去。Agent 不用等真实流量,自己就能迭代自己的策略库。这和过去几个月各家在推的 "agentic memory" 是一脉相承的,只不过 Anthropic 这次给了一个更戏剧化的包装。

但要说有没有新东西,也得实事求是。学术界做 "self-play"、"synthetic trajectory generation" 已经好几年了,DeepMind、Meta AI 的论文一堆。Anthropic 把它产品化、放进 Managed Agents,算是工程落地的一步,不算理论突破。真正有价值的在于它暴露了一个可用的商业接口——开发者可以通过 API 控制 Agent 什么时候做梦、做什么梦、做多少梦。这在闭源大模型里还是头一份。

API 层面的变化

对接入 OpenAI Hub 的开发者来说,Dreaming 作为 Claude Managed Agents 的参数暴露出来,调用方式兼容 OpenAI 格式,直接走 /v1/messages 或 Agent 相关端点即可。一个最小化的配置示例:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_OPENAI_HUB_KEY",
    base_url="https://api.openai-hub.com/v1"
)

response = client.chat.completions.create(
    model="claude-sonnet-4.5",
    messages=[
        {"role": "system", "content": "你是一个客服 Agent"},
        {"role": "user", "content": "帮我查一下订单 #A1029"}
    ],
    extra_body={
        "managed_agent": {
            "agent_id": "agt_customer_support_01",
            "dreaming": {
                "enabled": True,
                "budget_tokens_per_day": 200000,
                "scenarios": ["complaint", "refund", "shipping_query"],
                "memory_retention_days": 30
            }
        }
    }
)

print(response.choices[0].message.content)

几个参数值得注意:

  • budget_tokens_per_day:每天的梦境预算,单位是 token。给得太少梦不出什么,给得太多纯烧钱,Anthropic 给的推荐区间是 50k 到 500k,看业务复杂度。
  • scenarios:可以显式指定你希望 Agent 重点演练的场景类型。不填的话它会基于历史流量自动采样。
  • memory_retention_days:梦境产出的记忆保留多久。短期任务建议设短一点,否则模型会被自己的幻觉带跑。

国内直连调用的话,OpenAI Hub 这边已经把 Managed Agents 的新参数透传支持上了,不需要额外适配。

速率限制翻倍:这个更实在

相比 Dreaming 的概念叙事,Pro 和 Max 用户的 Claude Code 速率限制翻倍是立刻能感知到的变化。

过去几个月,Claude Code 的限流一直是社区吐槽的重灾区。Max 套餐 200 美元一个月,很多重度用户写着写着就被 throttle,得等几小时才能恢复,生产力直接中断。Reddit 的 r/ClaudeAI 上隔三差五就有人开帖抱怨,Anthropic 官方也在工单里承认"需求超出预期"。

这次翻倍意味着:

  • Pro 用户(20 美元/月)每 5 小时的消息窗口大约从 45 条提到 90 条;
  • Max 用户分两档,5x 和 20x,分别对应相当于 Pro 的 5 倍和 20 倍,现在实际可用额度再乘 2;
  • Claude Code 的 agentic 调用(会触发多轮 tool use,消耗比聊天大得多)按新额度结算,这对 vibe coding 的连贯性提升明显。

顺带解释一下为什么这次能翻倍。过去半年 Anthropic 在推理层做了不少优化——包括把 Sonnet 级别的模型在自己的 TPU 集群上跑、优化 KV Cache 复用、把 Agent 场景下重复的 system prompt 做 prefix cache 命中。这些省下来的算力,一部分让给了老用户。

放到 Anthropic 这半年的节奏里看

这次更新不是孤立事件。Reddit 上有人统计过,Anthropic 在 52 天内发布了 74 个产品更新,平均每天一个多。密度比 OpenAI 同期还高。

几条值得拉出来看的主线:

  1. Claude Cowork 普遍开放:原来只给 Enterprise 的多人协作 Agent 能力,已经下沉到所有付费计划,带企业控制、RBAC、消费上限、OpenTelemetry 可观察性和 Zoom connector。这摆明是奔着抢 Copilot Studio 和 ChatGPT Enterprise 的地盘去的。
  2. Managed Agents 体系成型:从最初的 Claude Agents SDK,到现在的 Managed Agents + Dreaming + Cowork,Anthropic 正在把 Agent 做成一个一等公民产品,而不是 "在 API 上包一层"。
  3. Claude Code 生态化:泄漏的源码显示它是用 TypeScript + React(Ink)构建的终端 Agent 操作系统,而不是简单的 LLM 命令行包装。这个架构决定了它能很快接更多 MCP server,生态起量速度会继续拉开和竞品的差距。

把这几条连起来看,Anthropic 的打法已经很清楚——不和 OpenAI 卷通用聊天,卷开发者工具链和企业 Agent。Dreaming 这个功能,单拿出来看是锦上添花,放到整个产品矩阵里看,是在给 "Agent 比模型更重要" 这个论点加筹码。

几个还没解决的问题

最后提几点我看完文档后的疑问,可能是下一阶段要观察的:

  • 梦境的幻觉污染风险:self-critique 能过滤多少假知识?如果 Agent 梦到一个不存在的 API 签名并记住了,真实请求来的时候会不会坚持错误答案?Anthropic 没公开具体的 gating 机制。
  • 成本归因:梦境消耗的 token 怎么计费?按官方说法是算在用户账单里,但具体展示粒度和能不能分账到 Agent 级别,文档还比较模糊。
  • 跨 Agent 记忆污染:如果一个租户下有多个 Managed Agents,梦境记忆会不会串?企业场景下这是硬需求。

这些问题没答案之前,我个人的建议是:先在非关键业务的 Agent 上打开 Dreaming,预算给小一点,观察两周再决定要不要推到生产。好东西,但别头铁。

参考来源