AI服务器吃内存的速度,比奶茶店排队还夸张。一台标准AI服务器的内存用量是传统服务器的8倍,企业买GPU时眼睛都不眨,回头发现存储成了新瓶颈——数据在硬盘和显存之间来回搬运,GPU空转的时间比干活还长。
这就是Solidigm想啃下的硬骨头。这家从Intel分拆出来、2020年被SK海力士收编的存储厂商,正在用一套「密度换带宽」的打法,试图把AI存储的价格打下来。
122TB硬盘:把图书馆塞进鞋盒
去年秋天,Solidigm扔出一枚炸弹:122TB的QLC固态硬盘。什么概念?单盘能装下约3000万首MP3,或者把维基百科全文存上150遍。
更狠的是功耗。同样存1PB数据,用Solidigm的QLC方案只需要传统硬盘的六分之一功耗。对于动辄上万块GPU的超算中心,电费账单上的数字会直接缩水。
技术底牌是「浮栅」结构。每个存储单元用独立导电层锁住电子,既能往上堆更多比特(QLC就是4比特/单元),又能防止隔壁单元被误伤。这在AI场景里很关键——训练数据量以PB计,一个比特出错可能让模型跑偏。
Solidigm战略总监Alan Bumgarner打了个比方:「这是内存层级的问题。离GPU越近,内存越快越贵;越远越慢越便宜。整个架构需要向上抬升,让各层并行运转、大规模扩展。」
QLC的翻身仗:从「廉价备胎」到AI主力
存储行业有个老偏见:QLC可靠性差,只配存冷数据。Solidigm想撕掉这个标签。
他们的赌注是「大容量+低功耗」的组合拳。AI训练有个特点——数据读取频率极高,但单次写入后很少修改。QLC的短板(写入寿命)被巧妙避开,长板(读取密度)被充分释放。
更隐蔽的战场在软件层。Solidigm在推一套参考架构,让122TB硬盘和GPU之间的数据流转更聪明。不是简单堆硬件,而是重新设计「数据怎么找到计算」的路径。
这套打法有个直接对手:CXL(Compute Express Link,计算快速链接)。CXL想打破内存和存储的物理边界,让硬盘直接参与计算。Solidigm的选择更务实——在现有PCIe(外围组件高速互连)框架内把密度做到极致,等CXL成熟再无缝衔接。
生态牌:不单打独斗
存储厂商的噩梦是什么?硬盘卖出去了,客户发现插不进自家服务器。
Solidigm的解法是和Vast Data、Supermicro这些系统集成商深度绑定。Vast Forward 2026大会上,他们的联合方案已经落地:122TB硬盘塞进Vast的存储节点,再对接NVIDIA的DGX系统。
这种「被集成」策略很产品经理思维——不教育市场,而是让方案自己跑进客户的采购清单。企业买AI基础设施时,存储是最后一个被想起的环节,Solidigm要做的就是让这环节「不用想」。
Bumgarner透露的细节值得玩味:「客户现在问的第一件事不是容量多大,而是『我的模型加载时间能不能从小时降到分钟』。」
时间成本才是AI训练的真金白银。GPT-4级别的模型重启一次,几百张GPU干等几小时,烧掉的钱够买辆保时捷。Solidigm的算盘是,用高密度硬盘减少数据迁移次数,让GPU利用率从60%爬到90%。
韩国资本的存储野心
SK海力士2020年接手Solidigm时,NAND闪存正经历价格战血洗。五年过去,AI风口让存储重新成为战略资源。
Solidigm的浮栅技术路线,和三星、铠侠的电荷捕获方案形成三足鼎立。前者更适合高密度,后者在速度上有优势。AI场景的特殊性——读取密集、写入可控——恰好放大了浮栅的长板。
行业数据侧面印证了这个判断:2024年企业级QLC SSD出货量同比增长47%,AI训练存储是头号驱动力。Solidigm吃掉了其中相当份额,但拒绝透露具体数字。
一个有趣的对比:同样做122TB级产品,三星用的是TLC(3比特/单元),单盘容量相当但成本更高。Solidigm的QLC路线赌的是,AI客户对「足够好」的性能有容忍度,对「足够低」的成本没抵抗力。
如果122TB硬盘能让中型企业用得起过去只有科技巨头才能玩的模型规模,存储行业的权力结构会不会重写?
热门跟贴