昨天的一条新闻,差点把华尔街的交易员集体整破防了。

据路边社爆料,Meta正在和Google谈一笔“几十亿美元级别”的AI芯片大单。但这次不是买英伟达,而是要买Google自己家的TPU。而且还打算先从2026年开始在Google Cloud上租着用,2027年直接往自家机房里搬。

打开网易新闻 查看精彩图片

消息一出,Alphabet(谷歌母公司) 股价继续往4万亿美元市值冲,英伟达当天则当天一度深跌超过6%,AMD也跟着一起遭殃。

这个逻辑并不复杂,对于英伟达来说,就是自家最大的金主爸爸之一,准备扶持一个新对手出来,专门给自己砍价用。属于是“我养你是为了让你牵制一下大房”的骚操作。

01、金主开始 “脚踩两只船” 了

01、金主开始 “脚踩两只船” 了

先给不懂行的朋友科普几个词,保证用大白话说清楚:

GPU,本来就是游戏显卡,因为特别擅长重复做加减乘除,被AI行业征用了,现在成了“算力印钞机”。

TPU,Google自己搞的AI专用芯片,全名叫Tensor Processing Unit,你可以理解成“只干AI这一件事的专业选手”,不像GPU还要兼顾游戏、图形渲染什么的。

ASIC,这个词AI圈特别爱说,全称Application-Specific Integrated Circuit翻译成人话就是 “为了一个目的专门定制的芯片”。

就像电饭煲只会煮饭,但啥锅都能炒菜,前者就是ASIC,后者是通用芯片。

这次Meta讨论的事,就是把一部分AI工作,从英伟达的GPU搬到Google的TPU上去。

  • 先在Google Cloud上租TPU跑推理和训练;
  • 后面直接买芯片,把Google的TPU塞进Meta自己的数据中心,变成“自己家的发电厂”。

为啥这个动作会被解读成“英伟达的城墙被自己人挖了”?

打开网易新闻 查看精彩图片

因为英伟达自己在SEC文件里都承认了:只有两个大客户,就贡献了接近40%的收入。这俩虽然名义上是“分销商”,但背后真正掏钱的,大概率就是那几个云巨头和互联网大厂。

换句话说:英伟达现在的生意模式,特别像一个超级工厂,被少数几个“宇宙级大买家”死死拿捏着。

而Meta正好是其中最壕的买家之一,外界预估,未来几年光AI相关的资本开支就能冲到每年几十上百亿美元。

现在这位金主爸爸突然说:“诶,我想多了解一下Google家的报价。”

对英伟达来说,这已经不是“丢了一单生意”那么简单了,一不小心可能会动摇根基。

02、TPU不是性能怪兽,而是“穷人福音”

02、TPU不是性能怪兽,而是“穷人福音”

那Meta看上TPU,到底图个啥?

当然是“便宜”。

咱不扯那些技术指标,就看一件最实在的事:烧钱速度。

有第三方算过账,在云上租8颗TPU v5e,一小时十几美元;要是租同规模的8颗英伟达H100,有平台的报价能贵到前者的好几倍甚至十倍。

Google自己的案例也在反复强调,某些推理场景下,TPU v5e/v6e对比GPU,单个token成本能省50%~65%; “性能/每花1美元”,能做到GPU的3~4倍。

还有分析直接给了个粗暴结论:Google自己搞AI训练的成本,可能只有“买英伟达卡的人”的20%左右。

另外,说TPU时,Google很爱吹一个词:互联拓扑。

第七代TPU
打开网易新闻 查看精彩图片
第七代TPU

这听着很学术,其实可以想象成:你有一仓库机器,怎么排座位、怎么走网线,能让大家传东西最不绕路。

如果线路乱、机器连得散,两个GPU互相说句话要绕大半圈机房,算一次大模型就像写信还得经停好几次中转站。

Google的玩法是,把芯片+机柜+走线,一起当成“整体工程”来设计,让一整片TPU像一台大机器那样协同工作。

我们不用记具体参数,只要知道一句话:TPU不是一块块零售显卡,而是一整片提前排好队的“AI生产线”。

这就解释了,为什么在很多“量大、批发型”的AI场景里,它看起来更像个“穷人友好套餐”。

03、英伟达真正的危机

03、英伟达真正的危机

这条新闻之后,市场情绪为什么这么激动?

因为英伟达过去两年的剧本,太完美了。

  • AI大爆发,所有大厂都在抢算力;
  • 英伟达一边卖最强GPU,一边用CUDA这个开发工具链,把开发者死死绑在自己生态里;
  • 最新几个季度,收入、利润都在“往天上蹿”,股价一路冲成全球市值前三。

大家都默认“只要AI继续砸钱,钱就自然流向英伟达”。**

但Meta这单,戳穿了“只要”这俩字

根据曝光的内部预期,如果Google把TPU卖给更多像Meta这样的客户,有可能抢走相当于英伟达全年营收10%左右的份额。

这不是会不会倒闭的问题,而是英伟达还能不能维持现在这种“躺着数钱的毛利率”。

现在看四大云巨头的动作:

  • Google:自己全家桶TPU,从自家业务扩张到对外卖;
  • Amazon:Trainium/Inferentia,一门心思做“成本友好”的训练+推理卡;
  • Microsoft:Maia/Cobalt自研加速卡,同时深度捆绑OpenAI;
  • Meta:自研MTIA芯片,再加上这次传出来的TPU大单。

他们的共识其实就一句话:我们都离不开英伟达,但不能只靠英伟达。

当最大的几家客户一起往“多供应商+自研芯片”方向走的时候,英伟达面前的路,就从“神话股”慢慢变成了一家非常赚钱、但要接受砍价的上游工厂。