超微电脑(NASDAQ: SMCI)正在服务器市场下一盘新棋。4月28日,这家公司更新了数据中心模块化解决方案(DCBBS),推出基于Arm架构的服务器平台和符合OCP ORv3标准的机架产品。核心卖点很明确:用Neoverse V3技术打造的Arm AGI CPU,主打"每瓦性能"——说白了,就是让AI算力更省电。
这次发布有20多款OCP风格系统,逻辑是模块化、可扩展,降低开放数据中心的部署门槛,同时把计算密度拉满。液冷是重头戏。FlexTwin双节点平台塞进1U机箱,配上Supermicro自研的DLC-2液冷方案,号称能带走CPU、内存和VRM上90%的热量。这对下一代AI的散热压力是个直接回应。
GPU侧也有动作。新款2U GPU系统兼容OCP ORv3机架,集成了NVIDIA HGX B300 8-GPU平台,瞄准大规模AI训练和推理的带宽需求。Arm产品线覆盖2U和5U两种规格,最高136核、6TB DDR5内存——单看数字,这是要抢云基础设施的蛋糕。
超微的业务版图可以拆成几块:液冷/风冷AI服务器、存储系统、5G/IoT/边缘嵌入式设备,以及各类刀片和多节点系统(SuperBlade、MicroBlade、FlexTwin、GrandTwin、BigTwin),还有Hyper、CloudDC、WIO等机架方案和MicroCloud服务器系统。这次新品属于现有产品线的延伸,而非开辟全新战场。
股价层面,SMCI目前被部分投资者视为"50美元以下值得关注的AI股"。但需注意,原文在披露部分提到,作者认为存在"上涨空间更大、下行风险更小"的其他AI标的,并推荐了一份关于"受益于特朗普关税和回流趋势"的短期AI股免费报告——这属于投资观点披露,不构成对SMCI的买入建议。
行业背景上,Arm架构进数据中心不是新故事,但AI算力需求让"能效比"重新成为硬指标。超微选择此时加码Arm+OCP组合,逻辑是清晰的:一方面蹭AI基础设施的建设周期,另一方面用开放标准对抗传统x86阵营的封闭生态。液冷方案从可选变成标配,也说明功率密度已经逼到了物理极限。
值得观察的变量:OCP生态的实际采纳速度、Arm芯片在AI训练场景的真实性能表现,以及液冷部署的成本回收周期。超微的模块化策略能否转化为市场份额,接下来几个季度的订单数据会更诚实。
热门跟贴