谷歌联手Meta围剿、微软亚马逊自研造反、OpenAI暗中磨刀。
黄仁勋最担心的事情,已经在美国发生了。但不是以他最害怕的那种方式。
黄仁勋最怕的,不是某一家客户不买他的芯片了。他最怕的,是所有客户都在同一个春天里悄悄干着同一件事。那就是给自己修一条逃离英伟达的逃生通道。这条通道也许现在还窄,还颠簸,还不能完全替代英伟达那套精密的GPU系统,但它是存在的。而且正在被谷歌、Meta、微软、亚马逊、特斯拉、OpenAI,用几百亿美元的资本开支,一米一米地拓宽。
全世界最赚钱的AI芯片公司,正在被它最忠实的客户集体“背叛”。而这场“背叛”的背后,藏着一笔远比任何技术参数都更冷酷的生意经。
01. 四路大军同时合围,英伟达的客户名单正在变成竞争对手名单
先把战局铺开。2026年的AI芯片战场,已经不再是英伟达一个人的独角戏。
谷歌是最早觉醒的。它的TPU(张量处理单元)已经发展到第八代,首次将AI模型训练与推理运算拆分为两款专用芯片,并计划推出专为AI推理任务打造的定制芯片。更重要的是,谷歌已经不再把TPU当自家后院的自留地——它已经与Meta签订了多年期TPU租用协议,与Anthropic合作提供大规模算力,TPU的销售已成为谷歌云业务增长的重要驱动力。用谷歌云CEO库里安的话说,TPU与Gemini模型让谷歌一方面不需完全依赖英伟达,另一方面也不必把主要经济利益交给外部模型公司。
Meta走的是另一条路。它的“训练与推理加速器”(MTIA)项目已经规划了四代芯片:MTIA 300已用于排序和推荐系统,MTIA 400、450、500将在2027年前陆续推出。其中MTIA 400是Meta首款在性能上可与主流商用产品相媲美、同时能大幅降低成本的自研芯片。虽然Meta今年2月曾因技术复杂性和制造风险被迫放弃了一款最先进的训练芯片,但它与博通的战略联盟不但没有松动,反而进一步加强。
微软的动作同样迅猛。Maia 200芯片已陆续部署在爱荷华州数据中心,下一站锁定凤凰城。微软云与AI部门主管Scott Guthrie明确表示,这款芯片是降低对英伟达依赖的关键策略。不过分析人士也指出,Maia 200主要是提升云服务运行效率的举措,不太可能完全取代微软对英伟达的依赖——英伟达的优势不仅在于原始算力,更在于其将GPU与网络技术及开发者生态紧密结合的软件堆栈。
亚马逊那边,Trainium系列更是来势汹汹。Trainium 2已经售罄,Trainium 3年初刚开始出货就已接近预订额满。亚马逊CEO贾西在股东信中披露,自研芯片年化营收运行率已达200亿美元,并正以三位数的百分比逐年增长。更让英伟达后脊发凉的是,ARK Invest的最新预测显示,定制芯片(ASIC)的出货量正以44.6%的年复合增长率狂飙,而英伟达的GPU市场份额正在被这些“反抗军”从四面八方啃食。
就连特斯拉也不甘寂寞。马斯克今年1月重启了此前一度暂停的Dojo 3芯片项目,虽然方向已从自动驾驶训练转向太空AI算力,但这背后的逻辑和其他巨头如出一辙:算力是我的核心成本,我不能永远把咽喉交到别人手里。
四路大军,各自为战,却殊途同归。而从英伟达的视角看,这一幕的可怕之处不在于任何一个单一对手——而在于它正在从一家“全行业的供应商”变成“全行业的共同对手”。
02. 反抗军图什么?不是英伟达的芯片不够好,而是它的利润表太刺眼了
为什么这些曾经对英伟达死心塌地的客户,突然集体翻脸?
答案不在技术层,在财务层。英伟达2026财年第四季度GAAP毛利率高达75.2%。简单说就是——你每花100美元买英伟达的芯片,英伟达能赚75美元。而同样的算力需求,如果用自研ASIC芯片来满足,成本可能只有英伟达方案的三分之一到五分之一。
亚马逊的Trainium就是一个绝佳案例。Trainium当前一代在训练成本上比英伟达GPU方案节省约30%,而下一代产品已经全部被预订一空。当客户发现用你的芯片比用别人的贵30%,你的技术再强,也挡不住他们用脚投票。
更深一层,这还是一场关于供应链自主权的战争。当英伟达的GPU产能永远被苹果、微软、谷歌这些更大客户优先占用时,每一家云厂商都面临同一个噩梦:一旦AI需求再次爆发式增长,没有自研芯片的公司将被锁死在英伟达的排产表上,眼睜睜看着竞争对手用自研芯片抢占市场。这就是为什么连OpenAI都在博通的协助下秘密研发自有AI芯片——因为即便是拿了微软上千亿美元投资的AI宠儿,也不想把全部身家押在黄仁勋一个人的排产表上。
03. 黄仁勋的底牌:不是芯片,是一张别人抄不走的生态网
面对四路大军的围剿,黄仁勋慌了吗?
表面上看,他没有。黄仁勋的反击极其精准——“英伟达的愿景是做通用型加速运算,不是做ASIC芯片。”他强调,英伟达的真正护城河在于软件生态体系:全球几亿颗GPU装置,庞大的CUDA开发者社群,跨云端的部署灵活性。如果用户想要换掉英伟达,面对的不仅是一块芯片的替换,而是整个软件栈的迁移。
这不是空话。CUDA是过去近二十年全球AI产业默认的操作系统。数百万开发者已经习惯了CUDA的代码逻辑,一切模型优化都默认先适配CUDA。一旦开发者想迁移到其他芯片平台,就得重写底层代码、重做算子适配、重新调参,工程代价数以月计。这种生态锁定效应,是任何单一芯片性能参数都无法比拟的护城河。
更狠的是,英伟达已经不再满足于只做GPU供应商。在2026年GTC大会上,英伟达发布了Vera Rubin全栈AI计算平台,搭载自研Vera CPU与Groq 3 LPU专用芯片,构建起“CPU+GPU+LPU”的全栈协同体系。黄仁勳更是放出豪言:到2027年,AI芯片市场营收机会至少1万亿美元,较此前的预测几乎翻倍。英伟达不是在被客户抛弃,而是在用一条从芯片到网络到软件的全栈锁链,把客户绑得更紧。
但这套“帝国防御体系”有一个致命的阿喀琉斯之踵。英伟达的毛利率高,恰恰是它能够维持全行业定价优势的最大筹码;但当客户把自研ASIC的成本压到英伟达报价的三分之一时,这笔账就开始松动——不是他们不需要英伟达了,而是他们终于愿意为75%的毛利率,支付属于自己的那份研发账单。
正如ARK Invest所指出的,定制芯片的崛起并不意味着GPU的消亡。而是意味着AI算力市场正在从“单一供应商绝对垄断”走向“多元架构并行”的新阶段。英伟达仍将在这个新格局中占据极其重要的位置,但它再也无法像过去三年那样,一个人吃完整个AI算力蛋糕。
我认为,反抗军们想要拆掉的从来不是CUDA,是那个被迫把75%利润拱手让人的模式。而黄仁勋守的也从来不只是GPU,而是被算力暴利撑起来的万亿帝国。
这场战争最终的结局,不是谁取代谁!而是英伟达从一个“唯一的算力之神”,变成一个“仍然极其重要、但不再是唯一选择”的玩家。当客户们发现,有些工作负载用自研芯片更划算,有些用英伟达GPU更高效,有些用TPU更灵活——这套多元化的算力采购策略,才是真正意义上对英伟达帝国最深刻的瓦解。英伟达没有输,它只是从这个春天开始,再也无法一个人独享整片AI的天空。
热门跟贴