美光HBM产能预计明年将增加三到四倍,机构持续看好HBM相关产业链公司。

1、美光HBM产能预计明年将增加三到四倍,英伟达也有大消息

据媒体报道,业内人士表示,美光正在研发的下一代HBM在功耗方面比SK海力士和三星电子更具优势。美光的新HBM产品在低功耗性能评估中表现出了优异的成绩。今年年底美光HBM产能为2万片12英寸晶圆。虽然仅为SK海力士和三星电子产能的20%左右,但预计明年将增加三到四倍。美光设定的目标是最早在明年下半年开发第6代HBM(HBM4),并预计在2028年开发第7代HBM4E。

此外,据界面新闻消息,英伟达首席执行官黄仁勋6月4日表示,正在对三星和美光科技的高带宽内存(HBM)进行资格认证。

HBM是AI时代的必需品。HBM解决了传统GDDR遇到的“内存墙”问题,采用了存算一体的近存计算架构,通过中间介质层紧凑快速地连接信号处理器芯片,极大节省了数据传输的时间与耗能,HBM采用堆栈技术较传统GDDR节省较大空间占用。在应对未来云端AI的多用户,高吞吐,低延迟,高密度部署需求,计算单位剧增使I/O瓶颈愈加严重,使用GDDR解决代价成本越来越高,HBM使得带宽不再受制于芯片引脚的互连数量,在一定程度上解决了I/O瓶颈。综合来看,高带宽、低功耗、高效传输等性能使其成为高算力芯片的首选。

2、 AI浪潮之巅:HBM成为存储战略要地

中金公司表示,AI算力追求高性能动态存储,HBM成当前较佳方案。随着数据量越发庞大加之AI芯片的加速发展,冯氏计算架构问题凸显:“存”“算”之间性能失配,使得计算机的计算能力增长遇到瓶颈,虽然多核并行加速技术可以提高算力,但存储带宽的限制仍对计算系统的算力提升产生了制约。GDDR是目前应用较为广泛的显存技术。但在AI计算领域GDDR也难堪重任,于是制造商将目光投向HBM技术。

HBM制造复杂度提升,不同产业链环节均有参与机会。AI芯片制造步骤相对于传统计算芯片复杂度大幅提升,同时考虑到不同的连接方式对于精度的要求和工艺要求不同,制造过程分布在IDM、晶圆厂和封装厂。GPU、HBM是Chiplet中的主要有源器件,由IDM、晶圆厂、存储厂进行制造;无源器件中,Interposer、RDL可由晶圆厂、IDM、封装厂制造;基板和PCB则由对应的厂商供应。

3、23年全球HBM产值约43.6亿美元,2024年有望翻4倍达到169亿美元

国金证券在研报中表示,由于HBM售价高昂、获利高,进而导致较高资金投入,同时,HBM较DDR5同制程与同容量尺寸大35-45%、良率则比起DDR5低约20-30%;生产周期也较DDR5多1.5-2个月,受益于AI需求强劲,GPU厂商提前锁单HBM产能,推动三大原厂持续积极扩产。

根据集邦咨询数据,截至2023年底,行业内整体DRAM产业规划生产HBM TSV的产能约为250K/m,占总DRAM产能(约1,800K/m)约14%,供给位元年成长约260%。2023年HBM产值占DRAM整体约8.4%,约43.56亿美元,预估至2024年底将达169.14亿美元,占DRAM产值约20.1%。

学投资找老师,请关注下方企业微信号,有专门客服为您解疑答惑:

热点公司:

本文内容不作为投资建议,市场有风险,投资需谨慎。

免费获取全部标的