新 闻①: AMD和英伟达AI芯片发展迅猛,加速HBM3E今年下半年将成主流

在人工智能(AI)和高性能计算(HPC)的影响下,近两年HBM产品发展逐渐加速,也推动着存储器厂商的收入增长,而新一代HBM3E也逐渐成为了各种新款芯片的搭配首选。今年英伟达带来了基于Blackwell架构的新产品,首发的B200和GB200都选用了HBM3E。 有消息称 ,AMD今年将推出改用4nm工艺制造的Instinct MI350系列,搭配的显存也将换成HBM3E。

打开网易新闻 查看精彩图片

据TrendForce 报道 ,AMD和英伟达都加快了主力人工智能(AI)应用芯片的开发步伐,而且都在规划采用更高规格的HBM产品,以进一步提升性能。从目前情况来看,2024年将会有三大趋势:

  • HBM3将进阶到HBM3E - 预计英伟达下半年开始扩大搭载HBM3E的H200出货,取代H100成为主流,B200和GB200也会采用HBM3E。AMD年底前会带来Instinct MI350系列,在此之前还会有Instinct MI32x系列,均选定了HBM3E。

  • HBM容量持续增大 - 目前市场主流的H100搭载的是80GB的HBM3,至2024年底改用HBM3E的新品,容量将提升至192GB到288GB。

  • HBM3E将从8层往12层堆叠发展 - 英伟达首批Blackwell架构产品都采用了8层堆叠的HBM3E,到了明年将引入12层堆叠的HBM3E。AMD今年的Instinct MI350系列,以及明年的Instinct MI375系列,都将采用12层堆叠的HBM3E,将容量提升至288GB。

此前三星已 官宣 了业界首款拥有12层堆叠的HBM3E,传闻SK海力士在今年2月已经向英伟达 发送 了新款12层堆叠HBM3E样品,以进行产品验证测试。另外有趣的是,报道中还提及了之前没有出现的AMD Instinct MI375系列。

原文链接:https://www.expreview.com/93328.html

随着去年AI技术的快速发展,AI加速卡大行其道,带动了当年的主流加速卡显存选择——HBM3的疯狂增长,之前我们讲过,去年一年HBM内存的销售额,超过了历来的总合。而在今年,随着AMD MI350系列以及NVIDIA的Blackwell架构新卡不约而同的选择了HBM3E,新的HBM3E内存或将成为新的加速卡主流。另外值得一提的是,目前HBM3E最成熟的海力士依旧存在产能和良率的问题,要想成为主流,这个问题一定要解决,不知道几时能实现呢??

新 闻 ②: 三星推出速率达10.7Gbps的LPDDR5X,专为人工智能应用优化

三星 宣布 ,已开发出其首款速率达10.7Gbps的LPDDR5X DRAM。三星表示,新款LPDDR5X是未来端侧人工智能(AI)的理想解决方案,预计将在PC、加速器、服务器和汽车领域中得到更广泛的应用,将巩固其在低功耗DRAM市场的技术卓越地位。

三星电子内存业务内存产品规划执行副总裁YongCheol Bae表示:“随着对低功耗、高性能内存需求的增加,LPDDR DRAM的应用领域有望从主要的移动领域扩展到PC、加速器、服务器和汽车等其他领域,传统上说,它们需要更高性能和可靠性,三星将通过与客户的密切合作,不断创新,为即将到来的设备端人工智能时代提供更优的产品。”

打开网易新闻 查看精彩图片

速率10.7Gbps的LPDDR5X采用了12nm级别的工艺技术,实现了三星现有LPDDR中最小的芯片尺寸。相比于上一代产品,这次的新款LPDDR5X在性能上提高了25%以上,容量也提升了30%以上,同时还将移动DRAM的单封装容量扩展到了32GB,成为端侧人工智能时代里高性能、大容量和低功耗内存的理想解决方案。

三星还采用了专门的节能技术,可根据工作负载频率调整和优化供电模式,以及扩展低功耗模式频段从而延长低能耗工作时长。这些改进使得速率10.7Gbps的LPDDR5X在能效上有了进一步的提升,相比上一代产品提高了25%,延长了移动设备的电池续航时间,并降低了处理服务器处理数据的能耗,最大限度地降低了总体拥有成本(TCO)。

在与设备供应商完成验证后,三星计划在今年下半年开始量产速率10.7Gbps的LPDDR5X。

原文链接:https://www.expreview.com/93325.html

而被HBM世界遗忘的,就是三星了,至今它也没拿下NVIDIA加速卡的HBM内存订单。但三星也是懂得给自己找新方向的,既然做AI芯片的厂商不带我玩,我自己做AI芯片不就行了?用自己家的芯片搭配自己家的内存不就好了?三星不久前宣布推出Mach-1芯片,是定位轻量级的AI芯片,并且已经和韩国本土科技企业达成了合作,而这个Mach-1芯片就是用LPDDR内存的!至此,已成闭环,并没有多少AI芯片需求LPDDR内存,三星这款针对AI芯片特化的LPDDR内存,很大可能就是为了自家的Mach-1芯片准备的,不知道这个芯片搭配这个新的特化内存,会有怎样的表现呢?

新 闻 ③ : 美光宣布量产232层QLC NAND闪存,将供应给客户端和数据中心产品

美光 宣布 ,已开始量产232层QLC NAND闪存 ,并已经在选定的关键SSD中发货。除了消费客户端产品外,还会向企业存储客户及OEM厂商提供对应的产品,比如Micron 2500 NVMe SSD。

打开网易新闻 查看精彩图片

美光表示,这次四层单元的NAND闪存新品是一项突破性的成就,提供了前所未有的层数和密度,可实现比以往NAND闪存更高的存储密度和设计灵活性,并缩短了访问时间。美光232层QLC NAND闪存通过利用以下重要功能,为移动、客户端、汽车、边缘和数据中心存储的用例提供无与伦比的性能,包括:

  • 全球位密度最高的OEM量产型NAND闪存,密度比起自家上一代176层QLC NAND闪存提高了30%。

  • 业界领先的位密度,领先于竞争对手的最新产品,结构更为紧凑,相比提升了28%。

  • 业界领先的NAND闪存I/O接口速度,达到了2400 MT/s,比上一代提高了50%。

  • 读取性能比上一代176层QLC NAND闪存提高了24%。

  • 写入性能比上一代176层QLC NAND闪存提高了31%。

存储解决方案和定制企业级SSD设备制造商Pure Storage的总经理Bill Cerreta表示,美光的232层QLC NAND闪存是其大容量DirectFlash模块的关键,在美光的推动下,让Pure Storage在2028年之前完成取代数据中心所有 机械硬盘 的目标上又向前迈进了一步。

原文链接:https://www.expreview.com/93323.html

额……也不是说AI进步和数据中心需求带来的都是好东西,数据中心巨大的存储要求,带来了这种容量特化的新NAND芯片。其实我们多次吐槽过现在NAND的叠层发展,除了容量之外可以说是全面劣化。而这次的产品,不光是向数据中心出货,家用市场依旧会是受害者之一,甚至我觉得数据中心可能看不上这种东西……

文章转载自网络(链接如上)。文章出现的任何图片,标志均属于其合法持有人;本文仅作传递信息之用。如有侵权可在本文内留言。

引用文章内容与观点不代表电脑吧评测室观点。

打开网易新闻 查看精彩图片