01 这场AI战争,最先被打爆的不是GPU,而是“路”

今天全世界都在谈AI算力。

谈英伟达,谈H100,谈B200,谈“几万张卡一夜起飞”。

但你如果真的进过数据中心,就会发现一个残酷现实:

算力不是凭空出现的。
GPU再强,也只是一个“发动机”。
发动机想把车跑起来,你得有——

  • 路(互连)

  • 油(供电)

  • 水(散热)

  • 仓库(存储)

  • 交通规则(网络协议)

而这其中,最先被打爆的,往往不是发动机,而是路。

当AI集群规模从“万卡”走向“十万卡”“百万卡”,整个系统最恐怖的瓶颈只有一个:

数据,跑不动了。

于是,一个以前不怎么上热搜的名字,开始频繁出现在云厂商的会议桌上——
Marvell(迈威尔)。

打开网易新闻 查看精彩图片

它不是GPU巨头,但它干的是更“硬”的活:
让数据在AI数据中心里跑得更快、更稳、更省电。

它自己的话说得很直白:
他们要做的,是“move、store、process、secure”全世界的数据。

说白了就是:

AI时代,谁掌握了数据的流动,谁就握住了算力的命门。
02 Marvell到底是谁?它不是明星,它是“军火商”

很多人对Marvell的印象还停留在:“存储芯片”“网卡”“以太网交换”。

但你看它的企业概览就知道,这家公司压根不是“某个单点产品公司”。

它是一家全球fabless半导体供应商,1995年成立,员工6900+,专利10000+,FY25营收约58亿美元。

打开网易新闻 查看精彩图片

重点不是规模,而是定位。

Marvell的定位是:

数据基础设施(data infrastructure)公司。

它不是造“AI大脑”的。
它造的是“大脑的神经系统”。

而神经系统一旦崩了,大脑就只能瘫着。

03 AI数据中心的三大件:算力、互连、交换机 Marvell要做的是“全包”

在Marvell的叙事里,AI数据中心的“加速基础设施”主要分三块:

1)Custom Compute(定制计算)
包括 XPUs/CPUs/DPUs/NICs

2)Interconnect(互连)
包括 PAM/coherent/coherent-lite/AEC DSP、PCIe retimers、DCI模块、TIA/driver 等

3)Network Switching(网络交换)
包括 scale-up 和 scale-out 的交换芯片

你看出来了吗?

Marvell不是说“我只做某个点”,它是说:

我把AI数据中心里最容易卡脖子的环节,全给你包了。

这就是它的狠。

04 AI真正的增长引擎:不是大模型,是“数据中心资本开支”

Marvell在投资者材料里摆了一个很有冲击力的数字:

数据中心CAPEX在快速膨胀,甚至要冲到2028年1万亿美元级别。

什么意思?

这意味着未来几年,全球最有钱的一群公司——云厂商、AI巨头、国家算力项目——
都会把钱砸进数据中心。

但砸钱砸到后面会发现:

你能买到GPU,但你买不到“让GPU高效工作”的系统能力。

于是“隐形军火商”开始抬价。

05 迈威尔最核心的野心:吃掉“定制AI芯片”时代

过去,云厂商买芯片的逻辑很简单:

  • 你(英特尔/英伟达)做什么

  • 我就买什么

但AI时代,逻辑变了。

云厂商要的不是“通用最强”,而是:

我自己的业务,最省电、最便宜、最适配的那颗芯片。

于是定制化成为主线。

Marvell直接把这件事讲成了一个时代变化:
从“x86跑一切”到“异构计算”,再到“云优化硅(cloud-optimized silicon)”。

而在它的Custom AI Investor Event里,它把市场拆得非常清楚:

  • 到2028年,Marvell认为数据中心TAM可到 94B美元,其中加速定制计算增长最猛

  • “定制XPU + XPU attach”会成为巨大增量

  • 它甚至提出目标:在custom compute与attach里冲到20%份额

这就不是“卖芯片”了。

这是在抢AI时代的数据中心底座。

06 什么叫“XPU attach”?这才是Marvell的狠活

很多人只盯着“谁在做XPU”。

但Marvell说得更现实:

真正的爆发,可能不在XPU本身,而在XPU周围的“外挂生态”。

它把custom TAM定义成:
XPU + XPU attach

XPU attach是什么?

它包括:

  • 网络接口

  • scale-up fabric

  • 安全与主机管理协处理器

  • memory pooler/expander 等等

这东西的本质是:

当AI集群大到一定程度,芯片不再是一颗芯片,而是一套系统。

系统里每一个“外挂”,都能成为几亿美元、甚至十亿美元级的生意。

Marvell还给了一个非常刺激的描述:

  • pipeline机会 >50

  • 客户 >10

  • 生命周期收入 75B美元

这不是在卖产品,这是在做“长期绑定”。

07 真正的技术壁垒:SerDes、光、电、封装、工艺 这才是AI基础设施的“内功”

AI时代最反常识的一点是:

你以为决定胜负的是算法、模型、GPU。

但当集群规模上来,决定胜负的往往是:

谁能让信号跑得更快,功耗更低,误码更少。

Marvell在材料里反复强调它的“底层积累”:

  • 5nm/3nm/2nm平台

  • 高速混合信号能力(high-speed mixed signal)

  • 多die集成、CPO(共封装光学)、in-package memory

你要注意:这些东西不性感,但它们决定了AI集群能不能活下去。

尤其是互连。

比如它的 Ara PAM4 DSP,就是典型的“AI互连硬通货”:

  • 3nm工艺

  • 8×200Gbps PAM4电接口

  • 1.6Tbps总带宽

  • 面向OSFP/QSFP-DD 1.6T光模块场景

换句话说:

当你开始谈1.6T光模块时,你已经进入了“AI数据中心下一代战争”。
08 结尾:Marvell不是“下一家英伟达”,它是“AI时代的水电煤”

最后我们总结一下:

英伟达是AI时代的“发动机”。
但Marvell更像是——

  • 电网(供电/稳压/能效)

  • 高速公路(互连/SerDes/光电转换)

  • 交通枢纽(交换芯片)

  • 系统集成商(定制计算与XPU attach)

发动机可以换品牌。
但水电煤,你绕不开。

Marvell的核心叙事就一句话:

加速计算依赖加速基础设施。

而当全世界开始堆AI算力时,真正的赢家,往往不是站在聚光灯下的人。

而是那个在黑暗里,修路、铺电、架桥的人。

欢迎加入行业交流群,备注岗位+公司,请联系老虎说芯(加V:tigerchip)