当科技巨头们还在为算力疯狂烧钱时,谷歌突然打开了一个新切口——把自研芯片卖给客户。这会让英伟达的护城河松动吗?
正方:硬件开放是谷歌的必走之棋
2026年4月29日,Alphabet在财报电话会议上扔出一枚重磅消息:TPU(张量处理单元)将首次作为独立产品对外销售。第八代TPU包含两个版本——训练型TPU 8t性能翻倍、算力提升3倍;推理型TPU 8i单位价格性能提升80%。首批客户名单已经敲定:Thinking Machines Lab和Hudson River Trading。
谷歌的算盘很清晰。云业务营收200亿美元、同比增长63%的亮眼成绩背后,AI相关服务收入占比已超35%,生成式AI产品收入更是暴涨近800%。但云服务市场微软Azure增长32%、Copilot付费用户破亿,亚马逊AWS签下特斯拉大单,竞争白热化。把TPU卖出去,等于在公有云之外开辟第二条变现通道。
更关键的是客户痛点。高频交易、大规模AI研究这类场景对数据安全和延迟极度敏感,公有云架构天生受限。让客户把TPU部署在自有数据中心,既满足合规需求,又让谷歌从"卖服务"升级为"卖基础设施"。谷歌预计2026年晚些时候确认少量收入,2027年成为主体来源——这个时间线说明这是战略级布局,不是试水。
财报发布当天,Alphabet股价上涨10%,单日市值增加4210亿美元,创历史第二大单日涨幅。资本市场用真金白银投票:硬件开放的故事,市场愿意听。
反方:英伟达的城墙没那么好拆
但芯片战争的残酷在于,产品好只是入场券,生态才是护城河。
英伟达2026年3月推出的H200 GPU仍在巩固领先地位——其数据中心AI芯片市场份额约80%。这个数字意味着:全球AI开发者的人才储备、工具链、优化经验,几乎全部围绕英伟达架构沉淀。TPU性能参数再漂亮,迁移成本是真实存在的 friction。
AMD的MI300X已在数据中心市场稳步增长,微软与AMD深化合作定制芯片,亚马逊持续优化Graviton系列——科技巨头的"去英伟达"努力从未停止,但80%的份额纹丝不动。谷歌TPU此前仅供内部和云客户使用,突然转向独立销售,软件生态、技术支持、渠道体系都需要从零搭建。
更隐蔽的风险在供应链。微软2026年资本支出1900亿美元中,250亿美元直接来自AI硬件涨价;全球AI硬件市场规模预计1200亿美元,GPU占比超60%。台积电先进制程产能紧张,涨价压力传导至整条产业链。谷歌此时推TPU,既要抢产能,又要打价格战,还要建生态——三线作战,资源如何分配?
我的判断:这是一场"延迟满足"的赌局
谷歌卖TPU,短期看是收入结构多元化,长期看是AI基础设施话语权的争夺。
全球AI投资预计突破1.3万亿美元,到2027年大型科技公司支出将破1万亿美元。微软1900亿美元、亚马逊2000亿美元的资本开支计划中,GPU采购、数据中心扩建、自研芯片部署是三大去向。这笔钱花出去,买的不仅是算力,更是行业标准制定权。谷歌把TPU推向市场,本质是争取让"谷歌标准"成为AI基础设施的选项之一。
但时间窗口在收窄。OpenAI的"星际之门"计划已从自建转向租赁,得克萨斯州阿比林站点投入运营,GPT-5.5训练每百万token成本降低35倍——算力成本下降的速度,可能快于硬件销售上量的速度。如果AI模型训练很快进入"边际成本趋近于零"的阶段,专用芯片的溢价空间会被压缩。
另一个变量是能源。数据中心能耗占全球电力比例从2020年1.5%升至2024年2.1%,AI数据中心能耗是传统设施的3到5倍。布伦特原油价格同比上涨约15%,其中AI相关能源需求贡献约3个百分点。谷歌TPU的能效比优势(相比GPU)能否转化为客户采购决策的关键因素,值得持续观察。
回到那个核心问题:这会撼动英伟达吗?
2026年的答案是不会。80%的市场份额、成熟的CUDA生态、开发者心智的锁定,短期内无替代品。但谷歌的动作释放了一个信号:科技巨头对"算力自主可控"的执念,正在从"自研自用"升级为"自研外销"。当亚马逊Graviton、微软Maia、谷歌TPU全部走向市场,AI芯片市场将从"英伟达单极"进入"多极混战"——这个过程可能需要3-5年,但方向已经明确。
对于开发者而言,选择变多是好事。对于行业而言,竞争加剧会加速成本下降和技术迭代。对于投资者而言,需要重新评估"AI基础设施"的估值逻辑:当硬件从稀缺资源变成可采购商品,云厂商的护城河究竟在芯片、在软件、还是在规模效应?
数据收束:Alphabet单日市值增加4210亿美元,微软2026年资本支出1900亿美元,全球AI硬件市场规模1200亿美元,英伟达数据中心AI芯片市场份额80%,AI数据中心能耗是传统设施3-5倍。五个数字,勾勒出2026年AI基础设施投资的狂热与焦虑。
热门跟贴