打开网易新闻 查看精彩图片

100毫秒启动一个隔离环境,成本只有传统容器的几百分之一,还能同时跑几百万个。这组数字不是实验室PPT,是Cloudflare今天放出的新工具参数。

4月13日,Cloudflare官宣Agent Cloud大幅扩容。核心就一件事:让开发者能把AI代理从本地笔记本上的玩具demo,搬到能扛住真实流量的生产环境。Matthew Prince的原话是,「我们正在进入一个代理自己写代码、执行代码的世界。」

这话听着像科幻,但Prince给了一个具体锚点——Cloudflare Workers已经修了9年地基。现在他们要当「代理网络」的房东。

Dynamic Workers:给AI代码造了个"快闪店"

Dynamic Workers:给AI代码造了个"快闪店"

新功能里排第一的是Dynamic Workers。这东西的本质是个isolate运行时,专门跑AI生成的代码片段。

传统容器启动要几秒到几十秒,Dynamic Workers是毫秒级。代理需要调API、转数据、串工具链的时候,它能在100毫秒内 spun up(启动)一个沙箱。用完即走,不留痕迹。

Cloudflare的定价策略很直接:绝大多数代理任务,用Dynamic Workers比传统容器快100倍,便宜到「a fraction of the cost」(成本的一个零头)。关键是零冷启动,几百万并发同时跑,不需要预热。

这个设计踩中了一个真实痛点。现在的coding agent(编程代理)和自主工具,动不动就要读上下文、推理、多步骤执行。如果每个用户、每个员工同时开着几十个个人代理跑,现有基础设施根本扛不住。Dynamic Workers想解决的就是这个规模化瓶颈。

Artifacts:给代理造了个Git兼容的"储物柜"

Artifacts:给代理造了个Git兼容的"储物柜"

第二个新功能是Artifacts。名字听起来像艺术品的复数,实际是个存储原语,而且专门为「代理优先」时代设计的。

它能支持数千万个仓库,能从任何远程源fork,给代理的代码和数据一个永久地址。最重要的是兼容标准Git客户端——人类开发者怎么用的,代理也能怎么用。

这个设计很有意思。以前我们谈AI替代程序员,焦点都在「写代码」这个动作上。但Prince团队显然看到了更深层的问题:代理写的代码放哪?怎么版本管理?怎么和人类协作?Artifacts就是回答这个问题的。

Git兼容意味着代理不是孤岛。它可以fork人类的项目,人类也可以review代理的提交。这种双向通道,比「AI完全替代人」的叙事更务实,也更接近真实工作流

Sandboxes:代理的"完整工作室"

Sandboxes:代理的"完整工作室"

Artifacts解决的是存储,Sandboxes解决的是运行环境。它给代理开放了一个完整的操作系统:持久化的隔离Linux环境,带shell、文件系统、后台进程。

代理可以clone仓库、装Python包、跑build、迭代调试——和人类开发者拿到的反馈循环一模一样。

这里有个产品哲学的转折。早期的serverless(无服务器)架构刻意限制环境,逼着开发者写「纯函数」、无状态代码。但AI代理的工作模式恰恰是反过来的:它们需要状态,需要持久化,需要能折腾环境。

Sandboxes等于承认了一个事实:代理不是简单的函数调用,它们是有生命周期的「数字员工」。你给它们越接近人类的工作环境,它们能做的事情就越多。

Cloudflare还提到了一个框架叫Think,属于Agents SDK的一部分。原文信息在这里断了,但从命名看,应该是处理代理的推理和决策流程的。

打开网易新闻 查看精彩图片

押注GPT-5.4和Codex,企业级代理的"硬件"就位

押注GPT-5.4和Codex,企业级代理的"硬件"就位

基础设施层之外,Cloudflare这次也亮明了模型层的站队。平台明确支持OpenAI的GPT-5.4和Codex,定位是「企业级工作负载规模化运行」。

这个组合有讲究。GPT-5.4负责通用推理,Codex负责代码生成,Cloudflare的全球网络负责托管和执行。三方各管一摊,拼起来是个完整的代理流水线。

Prince的野心写得很清楚:「让Cloudflare成为代理网络的 definitive platform(决定性平台)。」definitive这个词很重,不是a platform,是the platform。

这个定位的底气来自 Workers 的9年积累。2017年推出的Workers,当时被看作边缘计算的实验品。现在回头看,它提前解决了代理需要的几个核心能力:全球分布式部署、毫秒级冷启动、按请求计费的成本结构。

历史有时候就是这么讽刺。你为一个目的造的工具,最后在另一个战场派上大用场。

代理经济的"房东模式"

代理经济的"房东模式"

把Cloudflare的这次发布放在更大图景里看,它代表了一种商业模式的成型。

AI代理的竞赛分三层:模型层(OpenAI、Anthropic)、应用层(Cursor、Devin)、基础设施层(Cloudflare、AWS、Vercel)。模型层卖智力,应用层卖体验,基础设施层卖「生存空间」。

Prince选择当房东。房东不直接参与生产,但生产离不开房东。Dynamic Workers是工位,Artifacts是文件柜,Sandboxes是独立办公室。按用量计费,规模越大越赚钱。

这个模式的护城河在于网络效应。代理越多,对低延迟、高并发的需求越强,Cloudflare的边缘节点价值越高。反过来,节点越多,代理的运行体验越好,吸引更多开发者入驻。

有个细节值得玩味:Cloudflare特别强调「secure by default(默认安全)」。代理自主执行代码,安全风险比人类开发者高一个数量级。Dynamic Workers的isolate架构、Sandboxes的隔离环境,都是把安全做成基础设施的一部分,而不是让用户自己配。

这和传统云计算的哲学相反。AWS卖给你一台EC2,安全组规则你自己写。Cloudflare说,代理太危险了,安全我包办。

这种「保姆式」基础设施,可能是代理时代的新常态。毕竟,你不能指望每个AI代理都像人类开发者那样,记得关端口、清缓存、扫漏洞。

Prince在声明里用了个词:「long-running tasks(长时间运行任务)」。这指向代理的另一个特征——它们不是瞬时完成的请求,可能持续数小时、数天,甚至永远在线。

传统serverless按请求计费,适合短平快的任务。但代理可能需要保持状态、持续监听、异步执行。Cloudflare的「持久化」设计,从Workers的Durable Objects到Artifacts的存储,再到Sandboxes的环境,都是在为这种新模式铺路。

发布时机也很微妙。Cursor刚刚完成新一轮融资,估值冲到近百亿美元;Devin的母公司Cognition Labs也在快速迭代。应用层的代理工具越火,对基础设施的压力越大,Cloudflare的解决方案就越值钱。

这不是巧合,是刻意卡位。应用层在前面教育市场、制造需求,基础设施层在后面收割规模效应。

回到Prince的那句话:「代理需要一个家。」这个家要安全、要可扩展、要能 persists across long-running tasks(在长时间任务中保持状态)。Cloudflare花了9年建这个家的地基,现在正式开门迎客。

问题是,代理们会把这个家当临时旅馆,还是长期定居?当OpenAI、Anthropic甚至苹果微软都开始做自己的代理基础设施,Cloudflare的「决定性平台」定位能守多久?