算力优势,不再自动等同于效率优势。竞争的关键已不在于“谁更强”,而在于“谁更高效地定义基础设施”。
文|胡嘉琦ID | BMR2004
2026年春季科技发布会密集召开,美国加州圣何塞再次成为全球算力竞争的风暴中心。随着新一代芯片、互连技术与系统级产品集中发布,英伟达(NVIDIA)创始人兼CEO黄仁勋将2025—2027年的市场预期上调至1万亿美元,体现了当AI逻辑从“训练”向“推理”大迁移后带来的发展机遇。
英伟达并未止步于芯片,而是不断扩展边界。在真实的产业运行中,芯片只是入口,围绕算力展开的,是一整套更为庞大的支出体系,包括高带宽内存、服务器集群、数据中心、电力系统、液冷散热以及贯穿其间的高速互连网络。
《商学院》记者从英伟达方面获悉,英伟达推出了光电一体化封装网络交换机Spectrum-X Photonics,助力“AI工厂”扩展至数百万GPU级别。同时,英伟达发布NVIDIA Spectrum-X与NVIDIA Quantum-X硅光网络交换机,使AI工厂能够跨区域连接数百万GPU,在大幅降低能耗的同时优化运营成本,实现电子电路与光通信的深度融合。
这一系列动作都表明,AI不再是一个单点产品市场,而更像是一场围绕基础设施展开的系统性竞争。芯片、网络与存储被重新组织,作为整体能力落地到产业。
01
推理时代:算力体系的重构与性能爆发
以集中化、规模化为特征的算力供给方式,能够高效支撑大模型训练与推理需求
在这一轮技术与产品的集中发布中,一个更直观的信号是:AI算力的组织方式正在被重新定义。
在本届GTC上,Groq 3 LPU首次亮相,使Rubin平台的核心计算芯片扩展至7颗。与此同时,英伟达将其与5个机架级系统打包,形成一整套AI超级计算机方案。
这种变化并非偶然,而是直接回应了当下最核心的需求。大模型训练与推理正在进入规模化阶段,随着模型参数步入万亿级时代,传统服务器架构逐渐难以承载,行业不得不转向更高密度、更低延迟的系统级整合。
但是相比之下,Google的TPU、Cerebras的晶圆级芯片以及Groq等厂商的专用推理架构,能够在单位能耗、响应速度和成本控制上形成更直接的优势。这种差异正在影响客户的选择逻辑。以OpenAI和Meta为代表的大模型公司,正在从过去对单一算力供应商的依赖,转向多供应商组合策略,以在推理成本不断攀升的背景下实现效率最优。
换言之,英伟达的问题并不在于性能不足,而在于其通用架构在“推理优先”时代不再具备绝对的效率优势。当AI进入大规模商业化应用阶段,行业竞争的焦点正在从“谁能提供更强算力”,转向“谁能以更低成本、更高效率持续提供算力”也正是在这一背景下,英伟达的角色发生了变化,它不再只是GPU供应商,而是试图通过完整的产品与架构体系,定义AI基础设施的基本形态,并在这一过程中,占据产业链更高的位置。
在这样的背景下,Rubin的意义不只是一次产品升级。作为上一代Blackwell GPU架构的继任者,Rubin更像是一轮系统架构的重构。它最早在2024年台北电脑展上亮相,并在2025年GTC上披露更完整的技术细节,名称则来自美国天文学家薇拉·鲁宾,延续了英伟达以女性科学家命名架构的传统。
从产品节奏来看,Rubin推进明显加快。在2026年CES上,黄仁勋就透露,该架构已进入量产阶段,首批产品预计在2026年下半年交付,微软、亚马逊、谷歌、甲骨文等云厂商将率先部署,OpenAI等AI公司也已加入这一体系。
性能层面,Rubin带来的是一次明显跃升。训练效率提升约3.5倍,推理性能提升约5倍,同时由于架构更为集成,单位算力成本显著下降,在部分场景中,推理Token成本有望降至上一代的十分之一。
架构层面,Rubin由GPU、定制CPU(Vera)以及网络交换组件协同构成,并配备HBM4高带宽内存,显著提升数据吞吐能力。计算、存储与网络被整合在同一体系中,使其更接近一个完整的系统,而非传统意义上的芯片产品。
但更高性能也带来了新的工程挑战。随着算力密度提升,功耗迅速上升,单卡可达2000瓦以上,对散热系统提出更高要求。液冷逐渐从可选方案变为标配,数据中心的设计逻辑也随之改变。
在更大规模的应用中,Rubin将被纳入英伟达的超算体系,例如DGX SuperPod,同时也可以拆分为模块化产品供客户灵活组合。针对超长上下文等复杂任务,英伟达还设计了专用版本GPU,并通过大规模集群协同运行,提供接近“数据中心级”的单机算力。
资深企业战略和技术创新管理专家、科方得咨询机构负责人张新原在接受《商学院》记者采访时指出,英伟达所推动的“AI工厂”与大规模GPU集群模式,正在成为未来AI基础设施的重要形态之一。这种以集中化、规模化为特征的算力供给方式,能够高效支撑大模型训练与推理需求,但其可持续性取决于算力需求是否持续增长、电力与土地等资源供给是否匹配,以及软硬件生态是否具备足够的开放性与兼容性。
在这一逻辑下,英伟达的动作也开始向更上游和更广范围延伸。
02
向光通信与网络层延伸
在生成式人工智能加速发展的背景下,竞争正在从模型与算法,转向算力供给与基础设施能力。
2026年3月初,英伟达宣布与Lumentum Holdings和Coherent建立合作并进行投资,将布局从计算芯片延伸至光通信与网络层。这一动作指向一个正在显现的瓶颈,即带宽与延迟。随着模型规模扩大,数据在GPU、机架乃至数据中心之间的流动,逐渐成为影响性能的关键因素,仅依靠算力提升已经不再足够。
这一变化背后,是产业逻辑的转向。在生成式人工智能加速发展的背景下,竞争正在从模型与算法,转向算力供给与基础设施能力。
英伟达推出的硅光交换机通过创新性集成光器件,将激光器数量减少约4倍,能源效率提升至约3.5倍,信号完整性提升约63倍,大规模组网可靠性提升约10倍,部署效率提升约1.3倍,可以推动大规模AI基础设施向更高效、更稳定的方向演进。
张新原认为,节点之间的数据交换需求显著增加,使网络带宽与延迟逐渐成为制约整体效率的关键因素,这一趋势源于模型参数规模进入万亿级、训练数据持续扩大,以及分布式训练对高频同步通信的更高要求。在此背景下,硅光技术被寄予更高期待,但仍处于从实验室走向规模化应用的过渡阶段,在制造良率、成本控制及与现有电互联体系的兼容性方面仍面临挑战,未来3—5年有望在部分高性能场景率先落地,但全面替代仍需更长周期。
与此同时,数据中心的架构正在发生转变,“以网络为核心”的设计逐渐推动系统从计算与存储分离,走向计算、网络与存储深度融合。网络不再只是连接通道,而是逐步成为资源调度与任务编排的核心中枢。与之对应,光互连的价值被重新评估,其在长距离与高带宽传输中的能效优势,使其在高性能计算与AI集群中的应用空间持续扩大。产业链也在这一过程中发生重构,光电协同趋势逐渐形成,整体呈现出垂直整合与专业分工并存的格局。
在这一演进下,GPU厂商进入网络与光通信领域也具有必然性。张新原指出,随着AI集群规模扩大,网络性能已成为系统效率的关键变量,通过掌握全栈能力,GPU厂商能够在系统层面实现进一步优化,这也推动产业竞争从单一硬件,转向全栈解决方案的竞争格局。但与此同时,跨区域部署带来的延迟与一致性问题依然存在,受物理约束影响,短期内只能通过异步训练、梯度压缩及网络优化等方式缓解。
当AI竞争从模型走向基础设施,硬件的角色也随之改变,不再只是算力载体,而是影响系统效率与成本结构的核心变量。英伟达正在做的,是将分散算力整合为可调度、可规模化运行的工业级能力,而Rubin正是这一进程中的关键一环。
03
重构AI系统的“五层架构”
AI基础设施呈现出更清晰的分层结构:底层是芯片与互连,中间是系统与网络,上层是模型与应用。
如果算力只是其中一环,那么整套AI系统如何被组织?英伟达给出的答案,是“五层架构”。
在这条不断延展的路径中,它试图回答的不只是算力强弱,而是算力如何被更高效地使用。
随着模型规模增长,单纯堆叠GPU难以带来线性提升,反而受到数据调度、通信延迟与系统瓶颈的限制。算力竞争因此从“单点性能”转向“系统协同能力”。任务拆分、数据流动与资源调度,成为新的关键变量。
这也让AI基础设施呈现出更清晰的分层结构:底层是芯片与互连,中间是系统与网络,上层是模型与应用。英伟达正试图向每一层延伸,并通过统一架构将其整合为一个整体。
这一结构被黄仁勋概括为“五层蛋糕”。在他看来,AI产业的竞争不再是单一技术栈之争,而是系统工程的比拼。未来门槛将从“是否拥有算力”转向“是否具备系统级能力”。单点优势会被削弱,而系统差距将被放大。
从这个角度看,英伟达所构建的并不仅是产品组合,而是一种基础设施范式。当算力被重新组织并规模化调度后,AI逐渐从模型问题,演变为工程问题。
在此基础上,这一“五层蛋糕”也被进一步拆解为更具体的工业结构。
黄仁勋提出,从工业视角审视AI,可以理解为一个“五层栈”:第一层,也是最底层,是能源。智能是在实时生成中被持续塑造的过程,而这一过程依赖稳定的电力。每一个Token的生成,都涉及电子流动、热量管理以及能量向计算的转化。这一过程没有抽象空间,也不存在捷径。因此,能源成为AI的第一性原理,决定智能的上限。
第二层是芯片。芯片是将能源转化为计算的工厂。随着AI对并行计算、高带宽内存与高速互联的需求提升,芯片架构的演进直接影响系统效率与智能边界。
第三层是基础设施。包括土地、电力、冷却与网络系统以及复杂的工程体系,它将成千上万颗处理器组织为一台协同运转的机器。黄仁勋称之为“AI工厂”,其目标不再是存储信息,而是持续生产智能。
第四层是模型。AI正在逐步理解更多“世界语言”:人类语言、生物语言、化学语言、物理语言乃至金融逻辑。语言模型只是其中一类,更具变革性的进展正在蛋白质预测、化学模拟、物理建模以及机器人和自主系统中发生。
第五层是应用。真正的价值在这一层释放:药物研发、工业机器人、法律助手、自动驾驶与人形机器人等。每一个成功应用,都会反向推动模型、基础设施、芯片乃至能源体系形成持续强化的正向循环。
知名财经作家、眺远影响力研究院院长高承远则指出,算力、网络与能源共同构成底层约束,真正的竞争焦点在于谁能够更高效地整合这些要素,并构建可持续扩展的系统架构。在这一过程中,全栈能力与系统工程能力的重要性持续上升,产业格局也将围绕“系统定义权”展开重塑。
从长期来看,英伟达在全栈布局中的优势,更多体现在软硬件协同能力与开发者生态之上。其CUDA平台与AI软件体系,与GPU及网络硬件深度绑定,形成从芯片到系统再到应用的完整技术闭环,不仅带来性能优势,也构建了较高的生态壁垒。如今,AI基础设施正在走向异构化、分布式与绿色化,算力供给更加多元,网络架构更加注重低延迟与高带宽,而能源效率与系统协同能力,将成为未来竞争的关键变量。
当AI竞争从模型能力转向基础设施,算力不再是终点,而是体系的一部分。英伟达正试图通过芯片、网络与系统,定义这一体系的标准,将分散算力重构为可持续运行的“智能工厂”。
但在推理成为主导、成本与效率成为核心变量的阶段,通用架构的边界正在显现。算力优势,不再自动等同于效率优势。这场竞争的关键,已不在于“谁更强”,而在于“谁更高效地定义基础设施”。
热门跟贴