打开网易新闻 查看精彩图片

2026年4月1日,Cloudflare放出一个数据:用V8 isolates替代Linux容器,启动速度从秒级压到毫秒级,内存占用只有几兆。这不是实验室数据,是已经开放公测的Dynamic Workers——一个让主Worker在运行时动态生成子Worker的API。

翻译成人话:你的AI助手写的代码,现在可以直接扔给Cloudflare执行,不用等容器慢悠悠启动,也不用担心它把服务器搞崩。

AI生成代码的"执行焦虑"怎么破

大模型能写代码已经不是新闻。真正让工程师头疼的是:这代码敢不敢直接跑?

现在的主流方案是容器——Docker、Kubernetes那一套。安全是安全,但冷启动动辄几秒,内存按百兆算。如果AI给每个用户请求都生成一段定制化代码,容器架构的成本和延迟直接让人劝退。

Cloudflare的解法是把浏览器里用了八年的技术搬过来。V8 isolates,Chrome同款JavaScript引擎,每个isolate独立沙箱、毫秒级启动、兆级内存占用。按官方说法,比典型容器快100倍,省内存10到100倍。

Kenton Varda、Sunil Pai和Ketan Gupta在公告博客里写得很直白:「如果你想为每个用户请求按需启动一个isolate,运行一段代码,然后立刻销毁——这在技术上是可行的,经济上也是合理的。」

关键数字:100倍速、10-100倍内存效率、几毫秒启动。

这不是优化,是代差。容器像租整栋办公楼,isolate像按小时租共享工位——AI时代后者显然更对胃口。

Dynamic Workers到底能干嘛

Dynamic Workers到底能干嘛

官方给的场景很具体:AI agent需要执行用户提供的代码片段。比如数据分析工具让用户上传自定义计算逻辑,或者低代码平台根据自然语言描述生成并运行函数。

以前这些需求要么牺牲安全直接eval(),要么牺牲性能等容器启动。Dynamic Workers试图两头兼顾:主Worker调用API,动态创建子Worker,指定代码、给资源限制、跑完即焚。

每个子Worker跑在独立isolate里,崩溃不影响宿主,恶意代码逃不出沙箱。Cloudflare还提到可以设置CPU时间、内存上限、网络访问权限——细粒度管控是toB产品的基本功。

目前开放给所有付费Workers用户公测。定价按实际CPU时间算,不是预留实例那套。对用量波动大的AI场景,这比包年包月的容器集群灵活得多。

为什么偏偏是现在

为什么偏偏是现在

Cloudflare Workers平台2017年上线,isolate技术用了八年。Dynamic Workers不是技术突破,是产品时机成熟——AI生成代码的量终于大到让"每个请求一个沙箱"变得划算。

有个类比:外卖平台早期用电话接单,后来订单密度够了才上智能调度。isolate对容器,就像智能调度对电话接单——技术一直存在,等的是场景密度。

竞争对手不是没动作。AWS Lambda用Firecracker微虚拟机,Google Cloud Run走容器路线,启动速度都在百毫秒级。Cloudflare敢喊100倍,是因为isolate比微虚拟机更轻量,比容器更轻量,代价是只能跑JavaScript/WebAssembly,不能跑原生Linux二进制。

这对AI代码执行反而是优势。大模型生成的代码本来就是JS/Python,转译到WASM或直接跑JS顺理成章。真需要跑C++二进制的场景,本来也不会选serverless。

开发者实际会怎么用

开发者实际会怎么用

Cloudflare的文档已经上线。API设计很克制:主Worker里调用`env.dynamic_workers.create()`,传代码字符串和配置对象,返回一个可执行的Worker实例。

代码可以来自AI生成、用户上传、或者模板渲染。运行完调用`.dispose()`立即回收资源,也可以设置自动超时。错误处理走标准Promise reject,没有另起炉灶。

一个细节:子Worker的代码是动态传入的,不是预部署的。这意味着AI agent可以边生成边执行,不用先存到git再触发CI/CD。延迟从分钟级压到秒级,甚至毫秒级。

安全方面,isolate的隔离性经过Chrome十亿级用户验证。Cloudflare额外加了层:子Worker默认没有网络访问,需要显式开启;文件系统完全隔离;环境变量由主Worker注入,子Worker看不到宿主的其他数据。

这套组合拳下来,AI代码执行的风险模型从"防黑客入侵服务器"降级到"防单个请求耗尽资源",后者用限流和配额就能解决。

公测期间已有团队试水。某数据分析平台的工程师在论坛反馈,他们把用户自定义公式从容器迁移到Dynamic Workers,P99延迟从2.3秒降到180毫秒,成本下降60%。

这个数字未经Cloudflare官方证实,但技术逻辑说得通:容器2秒启动+200毫秒执行,isolate 5毫秒启动+200毫秒执行,差距正好一个数量级。

Cloudflare在公告结尾埋了个钩子:「这只是开始,我们还在探索让AI agent更安全、更高效执行代码的更多可能。」

如果AI生成代码的爆发趋势持续,"毫秒级沙箱"会不会成为云服务的标配功能?还是又会像serverless一样,叫好不叫座?