Anthropic 卖托管运行时,OpenAI 卖可组装底座:Agent 基础设施之争
如果你最近一直在看大模型公司的更新,很容易产生一种错觉:大家还在拼模型、拼价格、拼谁的 Agent Demo 更花。
但把 Anthropic 的 Claude Managed Agents 和 OpenAI 的新版 Agents SDK 放在一起看,你会发现战场已经换了。两家公司确实在同一维度开战,只是卖法不同。Anthropic 想卖的是一层托管运行时,帮企业把最脏最累的基建直接外包出去;OpenAI 想卖的是一层可组装底座,让开发者自己掌控 agent 的执行环境、工作空间和运行边界。
先把结论摆在前面:它们争的都不是“谁家 agent 更会说话”,而是“谁来定义 Agent 基础设施”。 模型热度当然重要,但真正能留下来的,往往是那层会被团队接进生产、写进流程、长期付费的底座。
第一层变化:两家公司为什么同时下沉到 Agent 基础设施层
过去一年,Agent 最大的问题已经不是“能不能跑一个 Demo”,而是“为什么总上不了生产”。
真正卡住团队的,从来不是工具调用本身,而是下面那整层没人爱做、但谁都绕不过去的运行时问题:
- 文件怎么挂载
- 命令在哪执行
- 容器失效后怎么恢复
- 凭证和权限怎么隔离
- 长任务怎么续跑
- 多 agent 怎么编排
- 出问题后怎么审计
这就是两家公司同时下沉的背景。Agent 一旦从问答玩具变成真实工作流,就不再只是一个模型接口,而是一套带状态、带工具、带执行环境的系统。
如果非要给这个变化下个定义,我更愿意这么说:2025 年大家卖的是“会做事的模型”,2026 年开始卖的是“能把模型放进生产里持续干活的基础设施”。
从这个角度看,Anthropic 和 OpenAI 的动作不是巧合,而是对同一个行业现实的响应:企业不再缺 Agent 概念,开始缺 Agent 底座。
Anthropic 的战略意图:卖托管 runtime,抢的是“少搭基建、快进生产、强治理”
Anthropic 这次的产品边界其实讲得非常直白。官方文档把 Claude Managed Agents 定义成运行在 managed infrastructure 上的 pre-built, configurable agent harness,最适合 long-running tasks 和 asynchronous work。
翻译成人话,就是:Anthropic 不是在卖一个普通 agent API,而是在卖一层托管运行时。
这层托管运行时,接住的是企业最不想自己维护的东西:
- secure sandboxing
- authentication
- tool execution
- long-running sessions
- scoped permissions
- identity management
- execution tracing
- multi-agent orchestration
Anthropic 的意图并不难看出来。它想吃掉的,不只是模型调用费,而是企业做 Agent 时原本要砸给平台团队、基础设施团队和安全治理层的那部分工作量。它卖的不是“模型更聪明”,而是“别自己盖房子了,这层我替你做好”。
这也是为什么 Managed Agents 的叙事里,最重的词不是 benchmark,而是:
- production-ready
- managed infrastructure
- sessions
- governance
- orchestration
Anthropic 的优势在于,它在托管化产品完成度上走得更靠前。企业如果优先追求的是:
- 几天内从原型到上线
- 平台接管运行时复杂度
- 更强的治理、权限、追踪边界
那它给出的路径会更短。
但这条路线的代价也同样清楚:你拿到的是一个更完整的平台边界。
Anthropic 替你接管了很多东西,也意味着它更希望你在它定义的运行时里做事。它锁住的不只是模型流量,更是企业未来的 agent runtime 入口。
一句话总结:
Anthropic 想把“做 Agent 的平台层”收编成 Claude Platform 的一部分。
OpenAI 的战略意图:卖可组装底座,抢的是“开发者掌控权、可移植性、混合执行层”
如果说 Anthropic 走的是“把 runtime 托管起来”的路线,那 OpenAI 这次更像是在卖一套可组装底座。
它这次更新的重点不是一个封闭的托管平台,而是几块基础原语:
- model-native harness
- native sandbox execution
- Manifest 抽象
- harness / compute separation
- snapshot / rehydration
- 多 sandbox 与 subagent 并行能力
很多人容易把它误写成“OpenAI 只是开源了一个 SDK”,这其实不准确。
OpenAI 确实有开放的 SDK 生态,但这次新版 Agents SDK 并不是“只有源码、没有产品边界”的纯开源动作。官方稿件写得很清楚:这批能力已经面向 API 客户正式可用,而且直接把一批 sandbox provider 接进了体系,包括 Blaxel、Cloudflare、Daytona、E2B、Modal、Runloop 和 Vercel。
所以更准确的说法是:OpenAI 不是纯本地路线,它卖的是开发者控制的混合执行底座。
也就是说,OpenAI 的战略重点不是“我来替你托管一切”,而是“我把最关键的基础原语标准化,你可以自己掌控运行环境,也可以接云端 provider,把 Agent 跑在你更想要的位置上”。
这条路线瞄准的是另一类用户:
- 不想被完整托管平台锁住的团队
- 已经有自有基础设施的企业
- 对数据边界、环境控制、执行位置更敏感的开发者
- 想把 Agent 接进自己现有栈,而不是搬进一个新平台的人
所以 OpenAI 的卖点不是“少做工程”,而是“别把控制权交出去”。
它想抢的是更底层的开发者心智。因为如果 Agent 基础设施未来会像数据库、CI 或云原生运行时一样变成长期底座,那最值钱的位置,不一定是把所有东西都托管起来,而是先成为那套默认抽象层。
一句话总结:
OpenAI 想把 Agent 的基础原语做成默认开发底座,而不是先把整个平台托管起来。
它们不是同一种产品,但在争同一层预算和同一类心智
这里最容易写歪的地方,就是把两者写成“同类产品对比”。这不对。
Anthropic 的 Managed Agents 更接近:
- 托管 runtime
- 平台化 agent harness
- 云上长任务和异步工作环境
OpenAI 的 Agents SDK 更接近:
- 可组装 harness
- 混合执行层
- 面向开发者的基础设施原语集合
所以它们不是同一种东西,也不该写成谁功能多、谁参数少的横向评测。
最准确的定义就是:同一维度,不同产品层。
但它们又确实在争同一层东西:
- 同一层企业预算
- 同一层 agent 平台入口
- 同一层开发者习惯
- 同一层“默认基础设施定义权”
如果 Anthropic 赢,它推动的是“Agent 基础设施平台化、托管化”。
如果 OpenAI 赢,它推动的是“Agent 基础设施原语化、可组装化”。
这也是为什么这两家公司现在看起来像在往不同方向发力,但本质上抢的是同一个位置:
谁来成为企业默认相信的那层 Agent 底座。
从这个角度看,你甚至可以把它们类比成两种经典打法:
- Anthropic 更像云平台打法:把复杂度收进服务里
- OpenAI 更像开发平台打法:把复杂度拆成你可组合的底层能力
这不是快慢之争,而是占位之争。
最终判断:未来的 Agent 基础设施,会分成托管平台层和可组装底座层
这轮产品变化真正值得看的,不是 Anthropic 和 OpenAI 各自发了什么,而是它们一起在证明什么。
它们一起证明了:Agent 的瓶颈,已经不在“模型能不能规划”,而在“模型进入真实工作流后,谁负责运行、治理、恢复、扩展和控制边界”。
所以我对这轮产品战的判断是:
未来的 Agent 基础设施,大概率会分成两层。
第一层,是托管平台层。
- 典型代表就是 Anthropic 这条路。
- 卖点是快、稳、治理强、少搭基建。
第二层,是可组装底座层。
- 典型代表就是 OpenAI 这条路。
- 卖点是控制权、可移植性、与现有技术栈兼容。
这两层会长期并存,不太可能被一种产品全部吃掉。
原因也不复杂。企业需求本来就不是单一的:有的团队要最快上线,有的团队要最强控制,有的团队愿意让平台兜底,有的团队还是想把运行边界握在自己手里。
所以如果只用一句话收尾,这篇真正想说的是:
Anthropic 和 OpenAI 已经不只是在卖模型,它们开始卖 Agent 基础设施,只是一个在卖托管运行时,一个在卖可组装底座。
我觉得这才是接下来一年最值得看的地方。模型层的竞争会越来越像参数和能力表,而基础设施层的竞争,才会真正决定谁能吃到生产入口。
如果你要把这篇转给同事,我建议直接配这句话:
Agent 的下一场仗,不是谁更聪明,而是谁先定义生产环境。
原文参考:
- OpenAI: The next evolution of the Agents SDK
- Anthropic: Claude Managed Agents overview