打开网易新闻 查看精彩图片
三星电子最近放了个数字:2026年HBM出货量预计超过100亿Gb。这串零看起来像个天文密码,但换算一下,大概是给全球每台AI服务器都塞满显存的量级。
打开网易新闻 查看精彩图片
HBM这玩意儿,你可以理解为显存界的叠罗汉。传统DRAM像平房,HBM是摩天大楼——把多层芯片垂直堆起来,用硅通孔当电梯,数据上下跑得飞快。AI训练要喂海量参数,GPU算得再猛,显存跟不上就是法拉利堵在单车道。
打开网易新闻 查看精彩图片
三星这次押注,等于在牌桌上All-in了AI基础设施的爆发。100亿Gb不是产能炫耀,是对2026年算力需求的预判:大模型不会瘦身,只会更胖;推理成本不降,云厂商就得继续囤卡。
但这里有个冷知识:HBM的良率至今是个黑箱。堆叠层数越多,报废一片等于整栋楼的损失。三星敢喊这个数,要么工艺有突破,要么在赌对手(对,说的就是SK海力士和美光)的良率也好不到哪去。
一个细节:三星的HBM3E还没通过英伟达认证,但产能规划已经排到两年后。这像不像装修还没验收,家具已经下单了?
热门跟贴