2026年的北京冬日,寒风凛冽,但中关村的ODCC大会现场却热得发烫。

在大会上,从阿里云的“磐久”新形态,到腾讯的“全光底座”,再到华为的“总线级级联”,各大厂不再掩饰自己的野心。这不仅是硬件的堆叠,更是一场关于互联协议、散热极限、供电架构与系统调度的立体战争。

本文将为你全景式拆解,在这场决定未来AI基础设施格局的大会上,各家大厂到底都在倒腾啥?

一、 阿里云:暴力美学与“内存墙”的终结者

作为国内云厂商的技术风向标,阿里云在此次大会上展示了其磐久AI Infra 3.0架构的核心组件——“玄武”超节点服务器(AL-SuperNode)。

1. 128卡:从“互联”到“融合”
打开网易新闻 查看精彩图片
1. 128卡:从“互联”到“融合”

阿里云这次端出了自研的单柜128卡的解决方案。

去Host化设计:传统服务器是“CPU控制GPU”,但在“玄武”架构中,CPU的存在感被极度削弱。阿里云采用了类似NVIDIA Grace架构的思路,利用自研的CIPU 3.0,使其不仅作为网络的大脑,更成为整个超节点的调度中枢,直接管理GPU间的显存寻址。

Scale-Up域:阿里云强调,在128卡范围内,实现了全带宽的Load/Store访问。这意味着,卡A访问卡B的显存,延迟低至亚微秒级,软件开发者完全不需要关心数据在哪张卡上。

2. CXL 3.1 的全面落地

这是阿里云本次演讲最大的技术干货。面对大模型训练中最大的瓶颈——显存容量不足(Memory Wall),阿里云激进地部署了CXL 3.1(Compute Express Link)技术。

打开网易新闻 查看精彩图片

远端内存池化:阿里云展示了一个连接在超节点背后的“内存柜”,通过CXL协议,为这128颗GPU额外扩展了PB级别的共享内存池。

核心观点:阿里云代表在圆桌上直言:“指望HBM(高带宽内存)降价是不现实的,扩容也受限于封装工艺。CXL内存池化是打破‘内存墙’的唯一解法。”

二、 腾讯:光进铜退,押注“以太网Scale-Up”

与阿里的“重构体系”不同,腾讯的风格一向是务实且强调标准化。在ODCC大会上,腾讯网络与数据中心负责人带来的核心议题是:当机柜越来越大,铜缆还能撑多久?

1. 铜缆的葬礼?
打开网易新闻 查看精彩图片
1. 铜缆的葬礼?

在过去两年的超节点设计中(如NVL72),铜缆因为低延迟、低功耗成为机柜内互联的首选。但腾讯指出,随着单Lane速率提升至224Gbps甚至448Gbps,铜缆的传输距离已经被压缩到不足0.5米。

腾讯的方案:全面推进NPO(Near Packaged Optics,近封装光学)。腾讯展示了与立讯技术等合作伙伴联合研发的3.2T NPO光引擎。他们主张在机柜内部、甚至板卡之间,就开始使用光互联,彻底解决信号衰减问题。

2. “星脉”网络的进化:以太网的逆袭

在Scale-Up(节点内扩展)领域,英伟达的NVLink是绝对霸主。但腾讯显然不想被绑定。腾讯在此次大会上高调发布了“腾讯超节点以太网规范 2.0”。

UEC(Ultra Ethernet Consortium)的实战化:腾讯是UEC联盟的重要推手。他们通过优化以太网的丢包处理和拥塞控制,宣称在256卡的超节点规模下,基于以太网的Scale-Up性能已经达到了专用私有协议的95%,但得益于通用交换芯片的规模效应,成本降低了40%。

三、 华为:定义“总线”,构建非美系生态

华为的演讲永远带着一种“体系化作战”的气场。在本次大会上,华为计算产品线并不是单独发布某一款服务器,而是发布一套标准——《灵衢(UnifiedBus)超节点互联架构白皮书》。

1. “灵衢”总线:不仅仅是互联
打开网易新闻 查看精彩图片
1. “灵衢”总线:不仅仅是互联

华为的核心逻辑在于:掌握了互联协议的话语权,就掌握了异构计算生态的“准入权”与“定义权”。

统一内存语义:华为展示了灵衢总线如何将NPU、CPU、SSD甚至网卡统一在一个地址空间下。这与阿里的CXL路线异曲同工,但华为做得更封闭、更紧耦合。

HCCS的超节点演进:基于HCCS(Huawei Cache Coherent System),华为展示了Atlas 900 SuperCluster的最新形态。重点在于解决“长尾延迟”。华为指出,在千卡级超节点中,0.1%的慢连接会拖垮整个集群。灵衢协议引入了硬件级的重传和纠错机制,大幅提升了大规模并行的线性度。

2. 算力原生的液冷设计

不同于其他厂商“先设计服务器,再考虑液冷”,华为强调了“原生液冷”。他们发布的超节点机柜,背板直接集成了流道,实现了100%的全液冷散热**(包括电源模块和光模块)。

四、百度:高密度集成,统一内存架构

百度的布局则体现了其“高密度集成、统一内存架构”的极致追求。百度基础设施AI资深架构师武正辉在演讲中强调:“端到端时延控制在微秒级,避免GPU空闲。” 这一目标直指MoE(Mixture of Experts)等稀疏激活模型的训练痛点——频繁的All-to-All通信极易因延迟而造成GPU等待,导致算力浪费。

打开网易新闻 查看精彩图片

百度推出了“天池”系列超节点产品,规划了从256卡到512卡乃至千卡级的演进路线。天池256超节点已实现卡间互联带宽较前代提升4倍,主流大模型推理任务单卡tokens吞吐提升3.5倍。其核心是全互联架构与统一内存架构,通过专用互联芯粒与高速协议,实现跨加速卡的内存共享,显著降低通信开销。在全栈布局上,百度从昆仑芯芯片、百舸AI计算平台到千帆大模型平台,构建了完整的AI Infra体系。其目标是通过系统级优化,将算力投资高效转化为业务成果,支撑文心大模型5.0(2.4万亿参数)等超大规模模型的训练与推理。百度的战略是通过全栈自研与高密度集成,打造资源利用率最大化、成本最优的AI算力引擎。

总结:2026,算力进入“拼积木”时代

通过各大厂的方案的分析,可以清晰地看到不同的技术路线与生态博弈。

在互联协议上,腾讯主推ETH-X,阿里支持UALink并兼容多种协议,华为坚持自研的灵衢(UB)协议,而百度则依托其全栈能力构建专有的天池架构。这反映了开放与自主之间的张力。

在规模目标上,华为的8192卡目标最为激进,百度规划了512卡及千卡级,阿里聚焦于128卡的高效节点,腾讯则从百卡级向更大规模演进。不同的规模选择,体现了各自对技术成熟度与市场需求的判断。

在开放策略上,阿里和腾讯通过支持或主导开放标准,推动跨厂商互操作;华为则选择开放其UB协议规范,吸引生态伙伴;百度则强调核心部件的全面国产化,保障供应链安全。这些策略共同指向一个目标:在激烈的竞争中,既要掌握核心技术,又要避免被孤立。

值得注意的是,所有企业都面临着“软节奏”与“硬周期”错配的共同挑战。AI模型的快速迭代要求互联技术必须具备高度的灵活性与可扩展性。GPU侧的IP供应商,这是解决这一问题的关键——通过将互联功能从主算力芯片解耦,可以灵活配置,支持多种协议,从而加速技术迭代,降低研发成本。