12月初,美国政府推出了一份业界早有预期的新禁令,把AI芯片的标配部件HBM(High Bandwidth Memory,高宽带存储器)再次推向风口浪尖。
01
AI芯片标配部件被针对
据路透社报道,美国商务部工业与安全局(BIS)前不久发布一项针对HBM(高宽带内存)的禁令,涵盖HBM2E、HBM3,HBM3E。该禁令于2025年1月2日生效。
要知道 AI 和深度学习算法需要处理庞大的数据集,而 HBM 的高带宽和大容量特性使其成为最理想的内存解决方案。限制中国获取HBM,可以限制中国发展大规模高性能计算的硬件能力,从而限制中国AI产业的发展。
美国商务部下属工业和安全局(BIS)发布了200多页的新禁令,几乎全面升级了对华半导体出口管制范围,包括24种半导体制造设备和3种软件工具;新增140家和中国相关的公司至“实体清单”(Entity List);以及禁止AI芯片所需要的HBM向中国出口等。按照半导体业内人士所言,这相当于把“黑手”伸向了中国芯片制造的全产业链。
和之前的动机差不多,美过的核心目标仍然是压制我国科技产业在新一轮人工智能竞争中的发展态势。
此前两轮半导体制裁针对的是GPU(图形处理器)的出口,这次又精准针对HBM。单卡GPU已经性能在AI大模型时代的海量数据面前已经力不从心,头部厂家把目光放在了“GPU+HBM”的系统优化上,以此来提升互联速度和存储容量。若没有高性能HBM,AI芯片整体效率会大打折扣。
这意味着,哪怕我们头部企业的模型足够好、训练时间足够长,能研发出自主AI产品,但成本会更高,研发的进度也变慢。HBM为什么会这么重要?
02
平面变立体,细究HBM
HBM这一产品形态其实很早就出现了,第一代HBM产品问世是在10年前。2013年,韩国SK海力士和AMD联合研发出HBM,用于AMD的GPU产品中显著优于同期的GDDR5。
HBM实际上仍然属于DRAM(内存)的一种,之所以能超越其他内存芯片,满足AI时代的性能需求,主要是因为它结构或者说封装技术上的改进。
在传统内存芯片,比如DDR4或GDDR5的设计中,内存芯片和其他部件都是通过封装基板或者PCB(印制电路板)连起来,焊在GPU周围,走的路径相对来说比较长。想提升性能就要把内存芯片做得更小,但摩尔定律在内存领域的进展并不理想。
半导体业内常有“内存墙(memory wall)”的说法,指的是内存性能严重限制CPU性能发挥的现象。在过去的20多年中,处理器的性能以每年大约55%速度快速提升,而内存性能的提升速度则只有每年10%左右。
HBM改用2.5D/3D先进封装技术来解决这一问题。可简单理解为将多块DRAM立体堆叠,从而实现高带宽、高容量、低功耗的特点。
说来简单,实现起来是挺复杂的。芯片封装基板一般会有一个硅片,以前这个硅片只是作为一个托盘使用,里面没有任何走线或者电路,大家都是平面的。但是HBM技术是3D的,垂直堆叠的内存芯片、逻辑模(logic die)之间需要用微管连接,微管最终要穿过硅衬底,连接GPU,这就是TSV(Through- Silicon-Via)——既要连接左右,又要连接上下。
这样一来,内存芯片需要的面积一下子缩小了很多,HBM2就已经比GDDR5直接省了94%的表面积;同时,内存和GPU距离更近,以至于单根内存条容量和性能大幅提升,进而提升整个显卡的性能。由此,一片内存不够,那就多叠几片,先进产品目前能达到8片甚至12片。
储存器大厂美光台湾地区的CEO卢东晖有个很形象的比喻,先进的处理器就像一条八车道的通畅大路,内存就是上去的匝道, 只有一条道的话,车可以跑的很快但大家会堵塞在同一个地方,“现在的HBM3e技术就像同时加了8个入口,每个入口都有自己的作用”。
不过HBM也有缺点,即高生产成本和复杂的生产工艺。由于硅衬底作为连接内存堆栈和处理器的中介,在硅中介层中要完成精细的数据走线,并获得HBM接口所需数量的数据线数,据媒体报道,一颗HBM3e芯片售价至少是其他内存芯片的三倍,在200美元左右,而一颗英伟达H100系列芯片需要配备好几颗HBM3e芯片,总价上千美元。以前是因成本高很少用,现阶段,AI芯片终于成了HBM的唯一落地场景。
AI芯片(GPU、TPU)各部件成本占比
贵虽然贵了点,但是真的好用。
还是以英伟达为例,2020年,英伟达发布的A100芯片采用了第二代技术HBM2e,内存最高速度为3.6Gbps(千兆比特每秒);2022年发布的H100芯片采用第三代技术HBM3,最高速度为6.4Gbps;2023年又将H200芯片的存储更新至HBM3e技术,存储速度较HBM3快了50%,英伟达正在开始规模化交付的最新产品B100、B200,同样采用HBM3e技术。
目前AI应用层面还处于大爆发的前夕,HBM作为高算力芯片的标配,需求有增无减。根据第三方调研机构集邦咨询的数据显示,过去三年间,HBM在DRAM行业整体营收中的占比由2.6%猛增至20.1%,预计2025年HBM占DRAM产品出货量的10%,营收占比进一步增长至30%;到2027年,HBM市场规模将从2023年的40亿美元急增至710亿美元。
这也让HBM背后的主要厂商更是信心满满,筹备扩产。HBM市场一直是SK海力士、三星两家韩国大厂和美光三家的争霸赛。按照现在HBM市场数据,SK海力士以50%的市占率稳居第一,三星、美光分别占据40%、10%的份额。
有意思的是,中国是SK海力士的全球第二大市场,2024年第三季度中国市场营收占比高达24%,仅次于美国的64%。失去中国市场,对于HBM厂商来说也不会好过。
再说回美国这次新禁令。芯片制造业业内人士表示,从其规定的密度、带宽等参数来看,实际是为了限制HBM2及以上产品的出口,“短期看我们头部的AI芯片厂商还有HBM3的库存,影响有限;长期的话还是要破除一切幻想,自立自强方能破局”。
03
抛开热门AI芯片路线的尝试
但是客观来看,自己制造先进HBM并不容易。首先是SK海力士、三星两家韩国厂商早早建立的专利壁垒,会导致国内厂商很难在同一条路线上追赶实现量产。
华源证券分析师戴铭余在研报中提到,国内具备生产HBM所使用的先进封装工艺,比如武汉新芯的三维集成工艺,涉及HBM生产的核心三大工艺(TSV、bumping和堆叠键合技术),但目前国内尚无HBM量产经验,更别说应对之后必然会出现的良率问题。
其次,具体到实际生产过程,能否熟练应用晶圆级先进封装工艺,决定了HBM的良率。目前先进HBM需要晶圆厂的CoWoS(一种先进封装技术)来实现,台积电、英特尔是CoWoS封装技术的主要供应商,也都受美国政府影响较大。
也有国内厂商提出抛弃HBM,自己走一条通向AI的创新路径。持这种观点的业内人士认为,HBM采用的是一种存算一体的近存计算架构,但通向近存计算的路径不止一条,也有诸如ReRAM、MRAM、PCRAM、FeRAM等新型存储工艺。
只不过目前“GPU+HBM+CoWoS”是各家大厂平衡了多种商业因素、技术因素之后的选择,如果想要创新意味着大量的人力物力投入。况且,半导体行业是一个需要通力合作的行业,需要技术积累、需要产业链下流企业的测试反馈,都不是短时间内可以突破的。
幸运的是,由于这几轮美国出口管制措施,国内芯片客户基本上也都已经加速专项国产。目前业内共识是,中低端芯片已广泛实现国产化,高端芯片国产替代未来也势必加速。
现在,有不少中国企业开始不沿着头部企业既定的创新路线往前走,但是成本相对较高,而且性能比美国路线稍差一些,但从架构到设计、封装,以及支撑的设备和材料来看,都是自主可控的。
欢迎通过邮局渠道订阅2025年《电脑报》
邮发代号:77-19
单价:8元,年价:400元
编辑|张毅
审核|吴新
爆料联系:cpcfan1874(微信)
壹零社:用图文、视频记录科技互联网新鲜事、电商生活、云计算、ICT领域、消费电子,商业故事。《中国知网》每周全文收录;中国科技报刊100强;2021年微博百万粉丝俱乐部成员;2022年抖音优质科技内容创作者
热门跟贴