根据韩国媒体MToday的报道,韩国半导体企业SK海力士计划今年10月启动HBM4高宽带量产计划。
这一计划是为了满足英伟达预计于2026年开发的下一代AI GPU 架构“Rubin”推出的。
据悉英伟达Rubin架构将会采用HBM4高带宽内存,并且会和Vera CPU架构共同组成一个超级芯片系统。
英伟达Rubin架构也标志着从“单芯片设计”向“系统级别协同”的一次重要的技术路线转变,也是双GPU与Vera CPU异构计算单元深度集成的行业先行者。
据悉Rubin架构集成HBM4(288GB,带宽13TB/s),FP4的推理算力超过50PetaFLOPS,相较于前代Blackwell架构,性能提升了近3.3倍。
得益于HBM4的超高带宽,Runbin架构将可以构建起百万级GPU超算集群,与此同时再加上Vera CPU的协同优化,能够显著降低AI推理的延迟。
皮衣战神黄仁勋的“算力核爆”预言正在慢慢的走向现实,未来英伟达在全球的AI算力份额会出现井喷式增长。
所以围绕着AI算力的供应链也将会带来巨大的商机,未来万亿级的AI市场如果科技企业能够把握住,势必也将分得一杯羹。
韩国半导体企业SK海力士的十月HBM量产计划就是一个很好的例子,目前SK最新的HBM高带宽内存为12Hi HBM4。
12Hi HBM4总共堆叠了12层24GB DRAM芯片,单封装容量就高达36GB,带宽突破2Tb/s,这势必导致I/O接口翻倍,基础裸片功能变得异常复杂,增加了制造难度。
不过好消息是SK海力士已经突破了70%的良品率大关,所以这个10月量产计划才能够如期进行。
再说一下国内HBM4技术的发展现状吧,虽然中国已经启动了HMB4技术的布局,但是目前仍然是追赶阶段,尚不具备规模化量产能力。
HBM技术通过硅通孔技术进行芯片堆叠,要将数个DRAM裸片像盖楼一样垂直堆叠,HBM4一个模块又要堆叠更多的内存芯片,其复杂度指数增长,主要的难题就是需要增加硅通孔缩小凸块间距。
现实情况则是国内企业逻辑芯片上的设计和良品率要落后国际先进水平2~3代,所以我们不要一直浸淫在各种“突破卡脖子”、“遥遥领先”的捧杀当中,埋头科研,加大研发投入才是我们当下需要做的!
没有爬不上的高峰,没有攻不克的堡垒,你我共勉!
热门跟贴