2026年第一季度,亚马逊单季营收与净利润双双创下历史新高,但其过去十二个月的自由现金流却暴跌95%,从上年的259亿美元骤降至仅剩12亿美元。

在AI浪潮中,亚马逊正在牺牲短期的财务灵活性,将现金转化为数据中心、自研芯片与电力合同。

2026年第一季度,亚马逊的营收高达1815亿美元,其最核心的利润引擎AWS(亚马逊云服务)更是实现了28%的惊人增长,创下过去近四年来的最快增速。按理说,这样一台全速运转的印钞机,公司的金库应该盆满钵满。

财务报表上的自由现金流却给出了截然相反的答案。自由现金流,通俗来说就是一家公司在支付了所有维持和扩大业务所需的固定资产投资(即资本开支)后,真正能够自由支配的闲钱。

过去十二个月,亚马逊的资本开支高达惊人的1510亿美元,比上一年足足多花了近600亿美元。正是这笔史无前例的巨额采购,一口吞噬了亚马逊几乎所有的经营利润,导致自由现金流见底。

钱没有凭空消失,这1510亿美元,几乎全部流向了:遍布全球的新建数据中心、向台积电下的先进制程芯片订单、庞大的液冷系统,以及与能源公司签订的长期电力供应协议。

打开网易新闻 查看精彩图片

为什么在AI时代,亚马逊需要如此疯狂地烧钱?深层商业逻辑在于:AI的算力需求与过去二十年的传统云计算,在本质上是两种完全不同的商业物种。

传统云计算的核心卖点是弹性。过去,一家互联网创业公司或者大型零售商上云,是为了应对流量的波峰波谷。比如电商大促时临时增加一万台服务器,大促结束后立刻释放。

这种模式下,亚马逊通过复杂的软件调度,将海量的闲置计算资源切碎,共享给数以百万计的客户。这种模式是轻盈的,不需要云厂商在短期内集中爆发式地采购硬件。

打开网易新闻 查看精彩图片

但生成式人工智能彻底掀翻了这套逻辑。当一家头部AI企业需要训练一个千亿甚至万亿参数的下一代大模型时,它不再需要弹性,它需要的是确定性和独占性。一个顶尖大模型的训练,需要几万张高性能芯片在几个月的时间里日夜不停地满负荷运转。

期间绝不能断电,网络绝不能有延迟,算力更不可能跟其他公司共享。

这意味着,合同的交易单位变了。过去,客户按每小时几美分购买虚拟服务器;现在,顶尖AI公司是按兆瓦甚至吉瓦(电力单位)来直接锁定亚马逊未来几年的基础设施容量。面对这种吃穿透式的刚性需求,亚马逊无法再玩调配闲置资源的游戏。

它必须在客户真正开始训练模型之前,真金白银地把地买好、把厂房盖好、把几十万张芯片插进主板。

打开网易新闻 查看精彩图片

亚马逊账上的12亿美元现金,对应的是财报中另一项被许多人忽略的数据:高达3640亿美元的积压订单。

这些订单是客户已经签订但尚未履约的合同。现金流的暴跌,本质上是亚马逊在用今天的存款,提前垫付这3640亿美元未来收入的硬件成本。

这绝非盲目的扩张,而是在算力供不应求的卖方市场中,用实实在在的产能,将全球最优质的AI客户死死绑定在自己的战车上。

科技行业在过去十五年里,最迷信的商业模式是轻资产平台。做打车软件的公司不需要自己买车,做住宿平台的公司不需要自己盖楼。

早期的AWS云计算同样享受了轻资产的红利:它本质上是一个超级软件系统,用极其高效的算法管理着硅谷的服务器,赚取极高的毛利。

但生成式AI的爆发,将整个云计算行业生生地拖回了重工业时代。这是一个不以科技巨头意志为转移的客观物理规律。大模型的参数每增加一个数量级,对芯片算力和数据中心能耗的需求就会呈指数级爆炸。

到了2026年,制约一家科技公司AI版图扩张的,不再是程序员写代码的速度,而是有没有足够的变电站、有没有充足的冷却水源、以及能否拿到当地政府的土地审批。

打开网易新闻 查看精彩图片

在这个约束面前,亚马逊展现出了科技巨头中罕见的决断力。它顺应了这场重工业化的洗牌。

从商业竞争的防御视角来看,这种向重资产的全面倾斜,实际上是在为亚马逊构建一道竞争对手永远无法跨越的深沟高垒。当一家公司每年在基础设施上砸下近2000亿美元时,它就已经改变了行业的入场规则。

这意味着,任何试图在AI底层算力市场上分一杯羹的新创业公司,都将在这种令人窒息的资本壁垒前望而却步。

不仅是对初创公司,即使是面对同样体量的竞争对手,亚马逊的重也具有极强的战略压迫感。巨额的资本开支规模不仅带来了庞大的绝对算力容量,更能在产业链上游(如芯片制造、电力网络改造)获得绝对的话语权和优先采购权。

当全球数据中心的电力缺口越来越大时,谁先砸钱锁定了核电站或大型风电网的长期购电协议,谁就扼住了AI时代的能源咽喉。

从这个角度重新审视亚马逊现金流的枯竭,你会发现这其实是一种充满进攻性的防御。在技术范式发生剧变的断裂带上,保持庞大的现金储备看似安全,实则是最大的危险,因为这意味着你没有把资源转化成新时代的生产工具。

亚马逊深知,在算力短缺的今天,产能比现金更值钱。它正在把自己变成AI时代的超级重工企业,一旦这套庞大、重型且运转高效的全球算力网络彻底成型,它将以收租的形式,在未来几十年里源源不断地从全球AI经济中抽取丰厚的利润。

如果亚马逊仅仅是用1510亿美元去全盘购买英伟达的GPU,那么它充其量只是一个财大气粗的算力二道贩子。虽然能赚到钱,但行业的定价权和绝大部分利润将被上游的芯片垄断者抽走。

亚马逊敢于在2026年将自由现金流压缩到极致的底气,很大程度上来源于其隐藏极深、布局近十年的另一张底牌自研AI芯片体系。

打开网易新闻 查看精彩图片

早在2015年,亚马逊就以一笔在当时毫不起眼的3.5亿美元,收购了以色列芯片设计初创公司Annapurna Labs。这笔收购在多年的默默耕耘后,终于在AI爆发的今天结出了丰硕的果实。

打开网易新闻 查看精彩图片

亚马逊如今已经迭代出专为AI训练打造的Trainium系列芯片,以及专为AI推理打造的Inferentia系列芯片。

在这份亮眼的Q1财报背后,隐藏着一个对整个AI硬件生态具有颠覆意义的细节:亚马逊的Trainium 2代芯片已经基本售罄,采用台积电最先进3nm工艺的Trainium 3代几乎被订满。

打开网易新闻 查看精彩图片

甚至还在图纸和早期流片阶段的Trainium 4代,也有相当一部分产能被关键客户预订。包括Anthropic这样身处大模型第一梯队的顶尖公司,都与亚马逊签订了动辄数十亿美元、锁定大批量Trainium算力的长期合同。

客户为什么愿意放弃成熟的英伟达生态,转而使用亚马逊的自研芯片?核心逻辑只有两个字:成本。

对于一家大型AI企业而言,算力成本是决定其能否生存的生死线。英伟达的硬件虽然性能强悍且生态完善,但其高达极高比例的硬件毛利率,对于大规模采购的云厂商和终端客户而言都是沉重的负担。

亚马逊通过自研芯片,完成了从芯片设计、主板集成、服务器制造到数据中心网络架构的全栈垂直整合。

当亚马逊自己掌握了硅片的底层设计,它就能彻底剔除传统硬件供应链中层层叠加的溢价。根据业内测算,在同等性能表现下,使用亚马逊Trainium芯片进行大模型训练的综合成本,相比传统的商用GPU方案可以降低近乎一半。

在这个极具统治力的成本优势面前,客户有足够的动力去修改代码、适配亚马逊的硬件生态。

这就是亚马逊当前的阳谋:用早年的利润投入研发,用现在的现金流疯狂扩建自研芯片的产能,最终通过无可匹敌的性价比,把那些苦于算力成本高昂的AI大客户一个个吸引过来。

一旦这些头部客户的底层架构与亚马逊的自研芯片深度绑定,亚马逊就真正夺回了AI算力市场的定价权。这不再是一个关于利润率被挤压的故事,而是一个彻底重塑行业成本结构、并由亚马逊亲自制定游戏规则的新篇章。

外界看到的是消失的千亿美金,而亚马逊看到的是未来十年稳固的基础设施霸权。这家骨子里刻着第一天(Day 1)哲学的公司,曾经在千禧年初扛着华尔街的嘲笑,用巨大的亏损建起了全球最大的电商物流网络;

如今,它只是在更高的维度上,重演了二十年前那场经典的长期主义战役。