5月6日,Anthropic在同一天宣布了两笔重磅交易:向谷歌云承诺未来五年约2000亿美元的TPU算力和云服务采购,同时租下SpaceX的Colossus 1超级计算机,接入超过22万颗英伟达GPU。前者是训练侧的巨额押注,后者是推理侧的灵活补位——这家由前OpenAI核心成员创立的公司,正在用真金白银重构自己的算力版图。

2000亿美元是什么概念?它占到谷歌云积压订单的40%以上。作为交换,谷歌将分阶段向Anthropic兑现5GW规模的TPU集群,从2027年起逐步上线。5GW约等于5座大型核电站满负荷运转的耗电量,意味着谷歌几乎要为Anthropic新建好几座超大规模数据中心,里面塞满几十万块自研TPU芯片。

打开网易新闻 查看精彩图片

这笔交易的结构更值得玩味。谷歌先投入100亿美元现金(按3500亿美元估值),若达成里程碑再追加至400亿美元;与此同时,Anthropic承诺2000亿美元的云服务和TPU采购支出。投资与采购捆绑,芯片被指定为谷歌TPU——这种锁定效应,让Anthropic在训练侧大幅向谷歌TPU和亚马逊Trainium倾斜,仅在推理等场景保留英伟达GPU的角色。

这背后是AI产业一场无声的算力革命。过去两年,大模型厂商心照不宣的潜规则是:融资无论多少,最终都变成一张张英伟达H100或B200的订单。CUDA生态的绝对垄断,让黄仁勋的出货节奏直接决定模型厂商的训练规模。但现在,局面正在松动。

谷歌的憋屈在于:TPU研发十余年,内部训练Gemini性能不差,却始终缺少外部顶级大模型的背书,被市场视为非主流。亚马逊的焦虑在于:作为最大云厂商,AWS每年向英伟达缴纳天价"保护费",自研的Trainium急需标杆客户证明"不用英伟达也能跑顶级模型"。Anthropic的特殊之处在于:同时拿着谷歌400亿美元、亚马逊330亿美元的投资,加上2025年11月签下的300亿美元微软Azure算力合同,身处微妙的三角平衡中——它比谁都渴望撕开算力成本的口子。

四方诉求在此咬合:英伟达太贵太强势,谷歌有芯片缺生态,亚马逊有钱要独立,Anthropic要活下去还要盈利。一场针对英伟达定价权的多边博弈已然展开。

TPU的优势正在被验证。根据谷歌官方数据,在大型Transformer模型训练场景下,TPU v6e的性价比(性能/美元)约为同代英伟达GPU的3到4倍。谷歌数据中心PUE约1.1,远低于行业平均1.58。SemiAnalysis的研究指出,Anthropic的推理基础设施毛利率已从38%提升至70%以上,定制芯片路线的降本效应显著。

Anthropic的技术布局早已埋下伏笔。2026年3月,其宣布已部署百万颗谷歌TPU,下一财年TPU算力将达1GW;训练侧以TPU和亚马逊Trainium为核心,推理侧保留英伟达GPU——5月6日租下SpaceX的22万颗GPU即为例证。配合JAX框架对TPU集群的底层调优,一个"TPU训练主力+Trainium备份训练+GPU推理补位"的多元架构已然成型。

这意味着大模型厂商的角色正在转变:从硬件厂商的"提款机",变成算力架构的"设计师"。

行业格局随之分化。"TPU-JAX-Claude"的全栈协同路线开始结果:摩根士丹利预测,2027年TPU对外销售有望拿下全球AI加速芯片市场20%份额。Claude系列在同等性能段的API定价更具优势,谷歌通过硬件降本直接帮Anthropic打出了性价比牌。

OpenAI则选择了另一条路。其已锁定30.5GW长期算力合约,2025年10月与AMD签署多年期协议,部署总计6GW的AMD Instinct GPU算力(首期1GW MI450,2026年下半年部署),与英伟达GPU并行组成大规模集群。

两条路线,两种逻辑:Anthropic用深度绑定单一云厂商换取极致成本优化,OpenAI用多供应商策略分散风险、锁定规模。没有标准答案,只有对各自商业处境的回应。

但一个信号已经清晰:AI产业正从"参数军备竞赛"转向"算力效率竞赛"。当5GW的TPU集群和22万颗GPU在同一天被签下, Anthropic用行动证明——顶级大模型的护城河,不再只是谁的参数更多,而是谁能用更低的成本、更快的速度迭代下一代模型。芯片权力的重新分配,才刚刚开始。