黄仁勋为什么这些年在全球鼓吹AI,因为英伟达公司就是全球AI产业里最大的受益者。现在好了,英伟达最强对手已经出了。
现在谷歌公司的市值来到了4.86万亿美元,即将超越英伟达公司的市值。问题来了,凭什么一个搜索起家的老牌巨头,能把AI时代的新贵逼到墙角?
01 谷歌做了三件事,件件都在动英伟达的命根子
第一件事最直接:把TPU从"自用"变成外卖。2026年一季度财报会议上,皮查伊正式宣布谷歌开始向外部客户直接出售自研TPU芯片。第一款产品名为TPU 8i,专做推理;TPU 8t则定位训练,训练性能是上一代的2.8倍,而推理端的性价比提升了80%。
这才是真正刺痛黄仁勋的地方。以前TPU只在谷歌内部跑,英伟达可以不把它当对手。但现在,谷歌把TPU直接卖给客户部署在自己的数据中心里。这意味着什么?AI算力市场在供给端的定价权和游戏规则被全面改写。摩根士丹利预测,光是TPU对外销售,2026年就能给谷歌带来约30亿美元收入,2027年直接跃升至250亿美元。而首家样板客户已经昭告天下——谷歌把Meta和Anthropic推到了前台,让这两家在TPU上跑通了从训练到推理的完整链路。这明显是在告诉全行业一件事:TPU已具备替代英伟达的商业能力。
第二件事更狠:训练与推理芯片分家,精准打击。谷歌第八代TPU历史上首次将训练芯片和推理芯片完全拆开。背后的逻辑并不复杂:Agent时代来了。智能体每完成一次任务,需要反复激活模型做多轮推理,每次调用都要求低延迟、高并发。这跟训练阶段的集中大算力轰炸完全是两种物理需求。一颗芯片两头兼顾,哪头都是半吊子;拆成两颗,各自从零针对特定场景做极致优化,反而在效率上占尽便宜。
第三件事最致命:把AI从"烧钱项目"变成"赚钱生意"。一季报显示,谷歌云营收首次突破200亿美元,同比暴增63%,增速是同期亚马逊AWS的3.7倍、微软Azure的1.9倍。当亚马逊和微软还在讲"AI投入带来增长"的故事时,谷歌已经拿出了可以签单、可以交付、可以确认收入的订单——谷歌云积压的未履约合同高达4600亿美元,较上季近乎翻倍,其中一半以上将在未来24个月内确认为实际收入。
华尔街买账的从来不是你技术多牛,而是你赚了多少钱。Alphabet一季度净利润626亿美元,同比暴增81%。同一时间,英伟达虽然也同比增长,其最大客户们却正悄悄成为它的对手。亚马逊自研Trainium、微软自研AI处理器、Meta自研MTIA——五家最大的超大规模云厂商有四家都在自研替代芯片。一边是谷歌把TPU商业化,一边是大客户集体加速去英伟达化,这才是整个故事最核心的张力所在:掌握了AI应用入口的公司,正在向上游侵蚀算力供应商的利润池。
谷歌云还顺势发布了名为"Sunder"的软件层。让开发者无需重写代码即可在其自研TPU和英伟达GPU之间无缝切换。提供"任意芯片、任意应用、任意规模"的运行环境,进一步压制客户的芯片锁定效应,并大幅降低英伟达高端GPU作为捆绑方案的吸引力。这种打法极度老辣:不是正面硬刚英伟达的技术优势,而是用平台化的软件层把英伟达的GPU重新定义为一个"可替换组件"。
02 英伟达的王座还能撑多久?
这个问题要从两层分开看。
先看存量竞争: 在训练端,英伟达仍是一座大山。全球八成的AI加速器由其供应,CUDA生态汇聚超过600万开发者、900余个加速库,二十年的迭代几乎已成为AI底层的事实标准。黄仁勋本人的判断丝毫不给对手留余地:"即便是免费的,也未必足够便宜"。绝对性能领先与生态惯性叠加,短期内撼动英伟达在训练端的金字塔塔尖位置依然谈不上容易。
但微妙的地方在于:AI市场正在从"训练为王"切换到"推理为重"。IDC预测,到2028年推理工作负载占比将达73%;到2027年英伟达面临至少1万亿美元的确定性算力需求,其中60%来自前五大超大规模云厂商。这说明英伟达的王座并非某个技术难题一朝攻克的结果,而是它的最大客户正在向自研算力供应商方向靠拢,整个产业正进行一场结构性权力迁移——话语权正从上游卖铲人向下游平台公司转移。
再看地缘变数: 英伟达最大的结构性隐患来自中国市场。黄仁勋本月亲口承认,英伟达在中国AI加速器市场的直接销售份额已从巅峰期的95%彻底归零。而华为昇腾正在以肉眼可见的速度吃掉这块蛋糕:伯恩斯坦预测2026年华为将占据中国AI芯片市场约50%的份额。更让黄仁勋坐不住的是,DeepSeek V4已正式将底层代码从CUDA全面转向华为CANN框架,标志着CUDA在中国最顶级大模型生产环境中经历了首次彻底的绑定性断裂。
华为CANN框架已实现超95%的CUDA代码兼容性,迁移周期从数月压缩至按小时计算。DeepSeek在华为昇腾上的推理成本比英伟达H20低四分之三,性能却反而到其2.87倍。这套降本增效的数字组合,让整个市场开始重新审视CUDA生态在成本端的真正防御力。
03 真正改变棋局的力量
其实谁都知道,英伟达失去中国市场不是因为它不想卖,而是华盛顿把它挡在了门外。但真正改写这场博弈的更底层的一次逻辑切换,却很少被拿出来说道。AI竞争的重心,正在从"抢夺最先进的GPU"悄然迁移至"抢占AI推理的入口"。
AI推理的市场规则与训练完全不同。推理靠的是规模化多用户场景中的入口掌控:从训练集群的峰值性能,到云上每日数亿次的智能体体验,从单一的设备比拼,到全栈覆盖芯片、模型、云服务和终端应用的能力。当谷歌每分钟处理160亿个token、当AI智能体把模型调用的频次拉至传统对话的数十倍,算力消耗的主力早就不再是季末冲刺那十几万张显卡了——而是你能否在云上搞定数以万计的并发推理请求并控制单位成本。在"单位token成本"这个战场上,定制化ASIC(如TPU)相比通用GPU,在同等功耗下往往能提供更高的吞吐效率,这正是谷歌大规模部署TPU用来跑自家Gemini后还能对外出租的底气所在。
对谷歌而言,TPU不是卖铲子的替代品,而是卖水的收费系统。用户不需要知道芯片是谁做的,他们只要感觉AI服务够便宜、够快、够好用。一旦越来越多的企业习惯了在谷歌云上使用TPU提供的低成本AI推理服务,英伟达就失去了最宝贵的用户黏性。
英伟达的芯片依然遍布全球的数据中心,但一些深层的裂痕已清晰可见。整个棋局最微妙的地方在于:AI产业核心话语权正从"上游集中卖铲"转向"下游精细化运营",英伟达的GPU生态固然不曾有丝毫退步,但下游平台对它的议价权却在逐年上升。
目前还很难说英伟达的王座会迅速易主。谷歌TPU的威胁也早被写在市场预期里——英伟达目前在AI加速器市场的份额仍高达约80%,而Alphabet股价大涨后预期市盈率已攀升至28倍,明显高于十年均值不足21倍的水平,分析师未来12个月的平均目标价距现价仅约5.4%。也就是说,当前股价已把大部分乐观预期提前兑付,接下来必须靠TPU持续放量兑现增长承诺,稍有预期落差,便将面临明显的获利了结压力。
但在2026年5月这个时间点上,再没人敢说英伟达会永远独享这座AI算力的王座。棋盘的另一端,一位十年磨剑、手握云入口和自研芯片的玩家,正以不可逆的速度追近,而它等这一刻,已经等了太久。
热门跟贴