Meta在AI基础设施上的赌注又加码了。4月9日,这家公司宣布向CoreWeave追加210亿美元订单,用于2027年至2032年底的专属AI云计算容量。加上去年9月的142亿美元首单,双方合作总额达到约350亿美元——这几乎相当于CoreWeave当前市值的1.5倍。
消息公布当天,CoreWeave股价上涨约5%,Meta涨约3%。资本市场用真金白银投票,认可这笔交易的逻辑。但更值得玩味的是合同细节:这笔钱专门买「推理」算力,而非训练。换句话说,Meta的模型训练已经基本完成,现在要解决的是如何让数十亿用户同时用起来不卡顿。
从矿场到云厂商:一家公司的两次生死 pivot
CoreWeave的故事始于2017年的新泽西。三个大宗商品交易员——Michael Intrator、Brian Venturo和Brannin McBee——把GPU挖矿当成副业,成立了Atlantic Crypto。2018年加密货币崩盘,以太坊又计划转向权益证明机制,GPU挖矿眼看要成为历史垃圾堆里的技术路线。
但他们发现手里积压的显卡,恰恰是机器学习研究者求而不得的稀缺资源。AWS、Azure这些超大规模云厂商的GPU配额紧张到需要排队数月,学术实验室和小型AI公司根本抢不过财大气粗的互联网巨头。2019年,公司更名为CoreWeave,全面转向GPU云基础设施。
这个 pivot 的时机堪称精准。2022年底ChatGPT引爆生成式AI浪潮后,算力成为比石油更紧俏的战略物资。CoreWeave以「GPU即服务」的灵活模式切入市场,避开与云巨头的正面竞争,专攻AI训练和推理的弹性需求。2025年3月28日,它以每股40美元的价格IPO,估值230亿美元。当年营收51.3亿美元,同比增长168%;已签约待交付的订单 backlog 超过660亿美元。
与Meta的首单142亿美元合同,是CoreWeave跻身主流云厂商行列的成人礼。那笔交易让它从「GPU二道贩子」变成值得超大规模客户押注的长期供应商。而最新的210亿美元追加订单,则把Meta推上了CoreWeave最大商业伙伴的位置——这笔收入足以支撑后者运营到2030年之后。
为什么是推理?Meta的算盘藏在合同条款里
这笔交易有个容易被忽略的关键限定:专门用于推理(inference),而非训练(training)。
区分这两个概念,可以理解成汽车工厂和高速公路的区别。训练是用海量数据「教」模型学会某种能力,相当于建厂造车;推理是让训练好的模型处理实际请求,相当于把车开上高速应对真实路况。前者需要集中、爆发式的算力投入,后者需要持续、低延迟的分布式响应。
Meta的特殊之处在于,它的Llama模型家族是开源权重、免费下载的。这意味着训练成本在模型发布前就已沉没,不需要像闭源厂商那样持续烧钱迭代超大模型。但代价是推理成本完全自担——数十亿用户每天调用Meta AI、Facebook、Instagram、WhatsApp的AI功能,产生的计算量是个天文数字。
Meta自己的数据中心并非不够用,而是「峰值容量」问题。社交网络的流量波动极大,节假日或突发新闻事件时的推理请求可能瞬间冲垮内部基础设施。CoreWeave的价值在于提供弹性缓冲:多地域部署、按需扩容、不占用Meta自有数据中心的规划容量。
合同还包含另一个技术亮点:CoreWeave将成为NVIDIA Vera Rubin平台的早期商业部署方之一。这款芯片在2026年3月的GTC大会上首次亮相,被黄仁勋定位为下一代AI基础设施的核心。Meta通过这笔订单,实际上锁定了未来两代NVIDIA旗舰芯片的优先供货权。
350亿美元背后的财务 engineering
CoreWeave同步宣布了一轮42.5亿美元的融资计划:30亿美元可转换债券、12.5亿美元垃圾债券。这笔钱用于支撑扩张,但结构本身就有讲究。
可转换债券给投资者一个「看涨期权」——如果CoreWeave股价涨过转换价,债主变股东,公司稀释股权但省掉现金偿付压力;如果股价表现平平,它就当作普通债务偿还。垃圾债券利率更高,但面向愿意承担风险的机构投资者,不稀释股权。
这种组合说明CoreWeave的管理层对现金流节奏有清晰规划。660亿美元的 backlog 是纸面富贵,变成实际收入需要持续投入数据中心建设、芯片采购、电力合同锁定。Meta的350亿美元订单分六年执行,CoreWeave需要匹配相应的资本支出,不能出现「订单在手、产能掉队」的尴尬。
对Meta而言,这笔交易的财务处理同样精细。2026年资本支出指引为1150亿至1350亿美元,AI基础设施是其中大头。与CoreWeave的合同属于长期租赁而非自建,可以在一定程度上平滑资本支出的年度波动,也可能在会计处理上获得灵活性——具体取决于合同被归类为融资租赁还是经营租赁。
更值得观察的是Meta的「双轨策略」:一边大规模自建数据中心(2026年 capex 的绝大部分),一边通过CoreWeave锁定外部弹性容量。这种混合模式在云计算领域并不新鲜——AWS、Azure、GCP都有类似的多云备份方案——但Meta把它用在了AI推理这个特定场景,且绑定了一家非传统云厂商。
行业信号:云市场的权力结构正在松动
这笔交易对云计算行业的冲击,可能不亚于当年AWS推出S3。传统认知中,超大规模AI工作负载只能交给AWS、Azure、GCP三家,或者自建。CoreWeave用两笔合计350亿美元的订单证明,专业化GPU云厂商可以切走最大的一块蛋糕。
背后的驱动力是算力供需的结构性错配。NVIDIA的GPU产能受限,云巨头们优先满足自有业务和核心客户的需求,中小AI公司长期处于配额饥饿状态。CoreWeave以「纯GPU云」的定位,绕过了传统云厂商的多业务权衡,成为NVIDIA的直供大客户之一。
这种模式的风险同样明显。CoreWeave的收入高度集中:Meta一家贡献的 backlog 可能超过总量的一半。如果Meta的AI战略转向、或者自有基础设施产能跟上,合同到期后的续约谈判将极为被动。2025年IPO时,CoreWeave的招股书就把「客户集中风险」列为首要警示。
但短期来看,双方利益深度绑定。Meta需要CoreWeave的弹性产能来支撑开源模型的全球部署,CoreWeave需要Meta的订单背书来吸引更多客户和融资。这种「大客锁定」策略在 enterprise SaaS 领域常见,但在基础设施层如此极端的案例并不多见。
另一个值得追踪的变量是NVIDIA的角色。Vera Rubin平台的早期部署权被写进合同,说明Meta和CoreWeave都在争夺芯片供应链的优先位置。黄仁勋的GTC演讲把Vera Rubin描述为「推理性能的代际飞跃」,但产能爬坡速度、软件生态成熟度、与上一代Hopper/Blackwell的兼容性,都是未知数。Meta用350亿美元押注,某种程度上也是在押NVIDIA的技术路线图不会跳票。
回到用户视角,这笔交易最终会影响什么?
对普通用户而言,可能是Instagram的AI滤镜响应更快、WhatsApp的聊天机器人更少出现「服务器繁忙」。对AI开发者而言,CoreWeave的成功可能催生更多专业化GPU云厂商,打破三巨头的定价权。对投资者而言,这是观察AI基础设施投资回报率的一个窗口——Meta的350亿美元能否转化为可量化的用户时长增长或广告效率提升,将在未来几年的财报中逐步显现。
CoreWeave的股价还在波动,Meta的 capex 指引每年都在上调,NVIDIA的下一代芯片尚未量产。唯一确定的是,350亿美元的合同已经把三家公司锁进了同一条船,目的地是2032年——那时今天的AI模型可能早已过时,但算力战争不会结束。
最后一个细节:CoreWeave的IPO定价是40美元,最新交易价约在47美元附近。Meta首单公布时股价跳涨,追加订单后反而涨幅收敛。市场正在消化一个事实——当单一客户贡献超过一半收入时,这究竟是护城河,还是另一种形式的依赖?
热门跟贴