公众号记得加星标⭐️,第一时间看推送不会错过。

低功耗动态随机存取存储器(LPDDR)正在人工智能(AI)内存市场崭露头角。它作为一种替代方案备受关注,有望弥补仅靠高带宽内存(HBM)难以解决的AI瓶颈问题,同时还能提供更高的能效。三星电子和SK海力士已发布新一代LPDDR产品,加入这场争夺市场份额的竞争。

据业内人士2月24日透露,三星电子和SK海力士分别在2月15日至19日(当地时间)于美国旧金山举行的“ISSCC(国际固态电路会议)2026”上公布了其LPDDR6的研发成果。ISSCC被认为是半导体设计领域最负盛名的会议。

三星电子和SK海力士均展示了符合JEDEC(联合电子设备工程委员会)标准的LPDDR6内存,其最大传输速度可达14.4Gb/s。与上一代LPDDR5X(最大传输速度10.7Gb/s)相比,速度提升约35%。LPDDR6预计将于今年下半年上市。

三星电子着重提升了能效。该公司设计的大多数电路即使在超低电压下也能正常工作,与LPDDR5相比,读取功耗降低了27%。在最低电压(0.97V)下,其传输速度达到了12.8Gb/s,并通过结构优化,增强了在实际使用环境中的稳定性。

SK海力士还应用了“高效模式”来降低功耗。该公司在保持12.8Gb/s传输速度的同时降低了功耗。SK海力士表示,该产品在低电压环境下可提供10.9Gb/s的传输速度,即使在最高传输速度(14.4Gb/s)下也能保持稳定的性能。此外,该公司还展示了仅使用所需功率的电源控制技术。

传统上,LPDDR主要用于智能手机等对能效要求较高的移动设备。然而,随着人工智能基础设施的普及,其应用范围近年来不断扩大。LPDDR能够弥补HBM单条内存无法解决的容量不足,同时又具备出色的能效,因此备受关注。通过使用LPDDR,可以扩展系统级内存容量,提高数据中心的能源效率,并降低总体拥有成本(TCO)。

具体来说,推理人工智能会生成称为“键值缓存”(KV缓存)的临时数据来维护对话上下文。随着上下文长度的增加,KV缓存容量会迅速增长,这可能导致GPU(图形处理器)中安装的HBM内存容量不足,从而造成瓶颈。因此,目前正在探讨一种将HBM的高带宽与LPDDR的高容量和低功耗特性相结合的设计方案。

此外,与标准DRAM相比,LPDDR具有更高的功耗和空间效率,能够在不大幅修改现有系统结构的情况下扩展内存容量。三星电子和SK海力士还通过在LPDDR6中集成“元数据”区域来提高数据管理效率,从而提升人工智能的计算效率。

例如,英伟达的GH200系统将安装在Grace CPU(中央处理器)中的LPDDR5X内存与安装在Hopper GPU(图形处理器)中的HBM3E显存连接起来。英伟达计划于今年下半年发布的Vera CPU预计将配备1.5TB(太字节)的LPDDR5X内存。

根据美光科技的研究,将LPDDR5X内存容量从512GB扩展到1.5TB,可以在实时推理环境中将首次令牌响应时间(TTFT)缩短高达98%。随着内存容量的增加,重新计算的次数可以减少,从而提高初始响应速度。

一位业内人士表示:“仅靠 HBM 无法满足所有快速增长的内存需求,”他补充道,“由于服务器 DRAM 和 LPDDR5X 的需求与 HBM 的需求同步增长,这将提高相关内存产品的整体盈利能力。”

(来源:编译自businesskorea)

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4328期内容,欢迎关注。

加星标⭐️第一时间看推送

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

求推荐

打开网易新闻 查看精彩图片