当行业还在争论"买英伟达还是等自研"时,Meta直接甩出了一个让所有人重新计算的数字:1吉瓦。这不是发电量,是AI芯片的部署规模——足够支撑一座中型城市的用电需求。

这笔交易到底有多大

打开网易新闻 查看精彩图片

4月14日,Meta与博通联合宣布扩大合作。核心条款:Meta将首批部署1吉瓦的MTIA(Meta训练与推理加速器),最终目标指向多吉瓦级别。

博通在另一份声明中强调,新一代MTIA将是AI行业首款采用2纳米工艺的定制芯片。消息公布后,博通盘后股价涨超3%,年内累计涨幅突破10%,跑赢标普500指数同期2%的涨幅。

这不是小修小补的升级。1吉瓦是什么概念?作为参照:一座大型核电站的单机组装机容量通常在1吉瓦左右。Meta要把同等量级的电力,全部喂给自家AI芯片。

扎克伯格的表态解释了这笔投资的终极目的:「利用博通的芯片设计、封装和网络技术,构建我们所需的大规模计算基础,为数十亿人提供个人超级智能。」

「个人超级智能」——这个词组值得拆解。它不是面向企业的云服务,而是直接触达终端用户的推理能力。这意味着Meta的算力需求不是阶段性峰值,而是持续性的、随用户增长而指数级扩张的基础设施。

谣言与辟谣:MTIA真的难产了吗

今年早些时候,有报道称Meta最新一代MTIA芯片遭遇上市困境。但博通CEO陈福阳(Hock Tan)在上个月的财报电话会议中直接否认:「与近期分析师报告相反,Meta的定制加速器MTIA路线图生机勃勃。」

他的原话更有信息量:「我们目前正在出货,事实上,对于下一代XPU,我们将在2027年及以后扩展到多吉瓦规模。」

「正在出货」四个字很关键。说明MTIA不是PPT产品,而是已经流入Meta数据中心的现役装备。「2027年多吉瓦」则是公开的时间锚点——距离现在不到两年,从1吉瓦到「多吉瓦」的跃迁计划已经排上日程。

上个月,Meta宣布正在开发四个新版本的MTIA芯片。产品线扩张速度,与外界的「难产」传闻形成鲜明反差。

为什么必须是ASIC,为什么不能是GPU

理解这笔交易,需要先厘清一个技术选择题。

MTIA属于ASIC(专用集成电路),与英伟达GPU(图形处理器)路线截然不同。ASIC为特定任务量身定制,体积小、制造成本低,但功能受限;GPU是通用处理器,几乎能运行任何计算任务,代价是更高的功耗和单价。

Meta的选择并非孤例。谷歌2015年就推出TPU(张量处理单元),最初面向标准云计算负载;亚马逊2018年跟进首批定制芯片。两家公司都依赖博通协助开发。

这条时间线揭示了一个行业规律:云巨头的终极形态,都是芯片公司

谷歌比AI热潮早八年布局ASIC,不是为了炫技,而是算力成本结构的必然选择。当模型推理规模达到十亿用户级别,每token(词元)节省的零点几美分,都会累积成天文数字。

Meta的处境更紧迫。它不仅要支撑Facebook、Instagram、WhatsApp的推荐算法,还要押注AI助手、生成式内容、未来可能的AR/VR交互。这些场景的共同点:推理需求远大于训练需求,延迟敏感度极高,用户基数以数十亿计。

GPU在这种场景下是「奢侈的通用解」。ASIC才是「精准的规模解」。

博通的角色:隐形巨头的XPU版图

这笔交易对博通的意义,不亚于对Meta。

博通近月来密集宣布XPU(定制处理器)订单。陈福阳在财报中透露,公司已与「所有超大规模云客户」达成合作,预计2027年XPU业务可服务市场(SAM)将达600亿至900亿美元

Meta的1吉瓦承诺,是这块版图中最醒目的标记之一。

博通的价值在于「全栈交付」:芯片设计、先进封装、网络互联技术。2纳米工艺的首发落地,证明其在制程竞赛中未被台积电甩开。对于不想自建芯片团队、又需要深度定制的云厂商,博通是少数可选的合作伙伴。

一个细节:Meta与博通的合作始于MTIA早期版本,此次是「延长伙伴关系」。说明双方已经跑通从设计到量产的完整流程,现在进入「复制-放大」阶段。

这种信任关系的建立成本极高。在芯片行业,换供应商意味着重新验证、重新流片、重新调优——时间以年计,成本以十亿美元计。Meta的「加倍下注」,实质是锁定未来五年的技术路线。

2纳米:工艺数字背后的战略卡位

博通特别强调「首款2纳米AI定制芯片」,这不是营销话术。

制程数字直接决定能效比。在数据中心场景,每瓦特算力的提升,都转化为同等电力预算下更多的推理吞吐量,或同等算力需求下更低的电费账单。

对于承诺「多吉瓦」部署的Meta,工艺节点的选择关乎经济模型的可行性。如果停留在3纳米或更旧制程,1吉瓦的电力成本可能让项目失去商业意义。

2纳米还意味着与台积电最先进产能的绑定。在晶圆代工产能持续紧张的背景下,首发2纳米是供应链优先级的体现——博通替Meta锁定了下一代工艺的产能配额。

行业格局:三条路线的分野

Meta的1吉瓦决策,将云厂商的芯片战略清晰划分为三条路线:

路线一:全自研。代表是谷歌TPU、亚马逊Trainium/Inferentia。特点是垂直整合最深,但需要十年以上的持续投入和数代产品的迭代耐心。

路线二:半定制合作。Meta-Broadcom模式。保留架构定义权,借力成熟供应商的设计和制造能力。速度更快,灵活性更高,但长期成本结构不如全自研极致。

路线三:纯采购。依赖英伟达、AMD等商用GPU。适合算力需求波动大、或不愿承担芯片研发风险的玩家,但面临供应瓶颈和定价权缺失的双重压力。

三条路线没有绝对优劣,取决于企业的AI战略深度、资本耐心和风险偏好。Meta的选择说明:它认为AI是核心基础设施,值得投入定制芯片的长期成本,但又需要比全自研更快的落地速度。

一个值得观察的变量:苹果和微软的动向。苹果拥有业界最强的芯片设计团队,但其AI基础设施布局相对低调;微软是OpenAI的主要算力提供者,目前高度依赖英伟达,但已有自研芯片Maia的传闻。它们的下一步选择,将决定「三条路线」是否会被改写。

财务模型:1吉瓦要花多少钱

原文未披露具体投资金额,但我们可以基于公开信息估算量级。

行业基准:一座1吉瓦的数据中心,仅电力基础设施投资通常在10亿至20亿美元。芯片本身的成本取决于制程和良率,2纳米ASIC的单片成本尚无公开数据,但参考3纳米GPU的定价逻辑,整批部署的芯片采购可能达到数十亿美元级别。

这还未计入研发摊销、运维人力、网络设备。Meta 2024年资本支出约392亿美元,2025年指引已上调至600亿至650亿美元,AI基础设施是主要增量。1吉瓦MTIA将是这笔预算中的重头戏。

投资回报的算账方式也在变化。传统数据中心以「租用率」衡量效率,AI基础设施则以「每美元生成的token数」或「模型迭代周期」为指标。Meta需要证明:自研芯片的TCO(总拥有成本)优势,能在3-5年内覆盖前期投入的溢价。

风险清单:什么可能让这笔交易翻车

任何百亿级技术押注都有风险敞口。MTIA的潜在风险点:

技术风险:2纳米是全新工艺节点,良率爬坡可能慢于预期。如果芯片实际能效比设计值低10%-15%,整个经济模型需要重写。

软件生态:ASIC的致命弱点是软件适配。Meta需要确保PyTorch、其自研推理框架与MTIA的协同优化,达到接近CUDA生态的易用性。这不是硬件问题,是组织能力的考验。

需求错配:模型架构仍在快速演变。如果下一代大模型突然需要某种MTIA不擅长的计算模式(如超长上下文推理),专用芯片的「专用」会变成负担。

供应链:博通是设计伙伴,但制造依赖台积电。地缘政治或产能挤兑可能导致交付延迟。

陈福阳的「正在出货」表态,说明最危险的「流片失败」阶段已经过去。但大规模部署的复杂性,与实验室验证不在同一量级。

竞争视角:英伟达会被撼动吗

市场反应已经给出部分答案:博通涨3%,英伟达当日波动平淡。说明投资者将MTIA视为增量机会,而非GPU的替代威胁。

现实更微妙。Meta的1吉瓦承诺,不意味着减少GPU采购。更可能的场景是:GPU用于训练前沿模型,ASIC用于规模化推理。两者互补,而非互斥。

英伟达的真正护城河不是硬件,是CUDA生态和NVLink互联技术。只要AI研究的前沿仍在快速移动,训练集群就需要通用性和灵活性——这正是GPU的优势域。

但博通-Meta联盟的崛起,确实在改变议价格局。当云厂商拥有「 credible exit option」(可信的替代选项),英伟达的定价权必然受到约束。2024年以来GPU供应紧张局面的缓解,部分源于此。

时间线复盘:MTIA的四年进化

2023年:Meta发布首款MTIA芯片,跟随谷歌、亚马逊进入ASIC赛道。

2024年:早期版本部署,主要面向推荐系统等成熟 workload。

2025年4月:宣布四款新版本,同时扩大与博通合作。

2026年4月:确认1吉瓦首批部署,2纳米工艺首发。

2027年及以后:规划扩展至「多吉瓦」规模。

这个节奏比谷歌TPU慢约八年,但比大多数后来者快得多。Meta的「后发优势」在于:它目睹了谷歌踩过的坑,可以直接采用更先进的制程和封装技术,跳过部分迭代周期。

一个被忽略的细节:「个人超级智能」的商业模式

扎克伯格的表述中,「个人超级智能」前面有个定语:「为数十亿人提供」。这不是技术愿景,是商业模型的预告。

当前的AI产品(ChatGPT Plus、Claude Pro等)采用订阅制,付费墙限制了用户规模。Meta的历史路径依赖是广告:免费服务换注意力,注意力换广告主预算。

「数十亿人」的表述暗示:Meta可能探索AI能力的免费或 freemium 模式,将算力成本内化,换取用户时长和数据优势。这要求推理成本降到极低水平——ASIC路线的终极合理性正在于此。

如果GPT-4级别的推理成本能在两年内下降10倍,「AI即基础设施」将取代「AI即产品」成为主导叙事。Meta的1吉瓦押注,是为这个转折点提前建仓。

开放提问

当1吉瓦芯片在2027年全速运转,Meta的「个人超级智能」会以什么形态出现在你的手机里?是免费嵌入Instagram的AI助手,还是某种我们尚未命名的交互界面?更重要的是:如果推理成本真的降到接近零,AI产品的商业模式会被彻底重写吗——而在这场重写中,提前押注ASIC的玩家,是否会比坚守GPU的玩家拿到更优的筹码?