来源:市场资讯
(来源:雷峰网)
“AI SSD的关键不仅在更快的硬件,更在能否根据不同负载重构数据的组织与调度方式。”
作者丨杨依婷
编辑丨包永刚
2025年,AI算力进入深水区。
一边是需求持续外溢:大模型训练规模仍在扩张,推理请求呈指数级增长,数据中心的投资未见降温;另一边,是一系列隐性的制约正逐渐浮出水面——算力利用率始终在低处徘徊,系统抖动频发,集群效率难以维持稳定。
行业逐渐意识到,瓶颈并不总出现在“算力”本身。很多时候,问题卡在“数据”这一环。
当计算集群规模扩大到万卡级别,任何一个环节的延迟波动,都会被放大为整体性能问题。一些云服务的宕机事件,表面上是调度算法失效,深层原因却是数据供给与计算节奏之间的错位——数据来不及被组织、搬运、分发,算力只能在空转中等待。
这让一个长期被视为基础组件的领域,重新进入核心视野:存储。
过去,存储的任务是解决“存得下”;而在AI时代,它开始决定“算得快不快”。
正是在这一背景下,“AI SSD”应运而生,几乎所有主流存储厂商,都在尝试交出自己的答卷。
但问题也随之而来——当整个行业都在做AI SSD时,什么才是真正有效的改进?存储,究竟需要为AI改变什么?
带着这些问题,我们与英韧科技董事长吴子宁博士进行了一次对话。他没有急于回答,而是先讲起了一个二十多年前的故事。
(本文作者长期关注存储行业,对周期波动与企业分化有持续追踪,欢迎添加微信EATINGNTAE交流探讨。)
01
在技术的交叉口,选对方向很重要
技术史,并不是一条笔直向前的曲线,而更像是一连串不断被推翻、被修正、再重建的尝试。吴子宁博士用一个故事,解释了这种平衡如何被打破、又如何重建。
2001年,苹果发布iPod,那款音乐播放器采用了一项当时颇具突破性的设计——把机械硬盘缩到火柴盒大小,实现了5GB的存储容量。而在同一时期,主流MP3播放器普遍仅配备64MB或128MB的闪存。
苹果首先颠覆了人们对音乐播放器的认知。吴子宁博士回忆道,“用户不再需要频繁管理音乐文件,而是可以将整个音乐库随身携带。”
这一变化迅速在产业链中引发连锁反应。多家硬盘厂商将小尺寸机械硬盘视为新的增长方向,投入大量资源进行研发。然而不久之后,另一项技术路径开始加速演进——闪存技术快速迭代,容量飞速发展。苹果随即推出基于全闪存的iPod,尽管入门容量仅为1GB,但凭借小型化和便利性,很快在市场上超越了机械硬盘版本。
很多存储公司投入大量资源研发小尺寸机械硬盘,都因为新技术的出现受到了巨大的冲击。
彼时,吴子宁博士正任职于Marvell,而Marvell正是业界最早全面投入闪存固态硬盘解决方案的公司之一。这一经历在他心中形成了一个重要判断:技术持续演进是常态,短周期内会有渐进式创新,而在更长周期内,则可能出现颠覆性变革。能否准确把握技术与市场趋势,并据此做出前瞻性决策,至关重要。
2016年创办英韧科技时,他已经观察到两个关键趋势的叠加。
“一边是数据需求在爆发,而且是长期趋势;另一边是存储介质正在从机械硬盘向固态硬盘迁移。”他说,“当需求和技术同时发生变化,就会出现一个很典型的机会窗口。”
而在AI驱动的新一轮数据浪潮之下,这一“判断能力”的重要性再次被放大——面对全新的计算范式,存储系统应当如何演进?
02
为什么需要AI SSD?
据DESIGNRUSH估计,2025年实际数据量约为173.4ZB,而2026年全年数据生成量预计在230ZB至240ZB之间,到了2029年,该数字预计将达到527.5ZB。
作为IT基础设施三大核心支柱之一,存储在半导体市场中占比约为20%至30%,但在AI时代,这一“支柱”正承受前所未有的压力。
这种压力主要体现在三个方面。
第一,数据形态正在改变。传统数据通常具备明确的冷热分层:热数据驻留内存,温数据进入SSD,冷数据则归档至机械硬盘。然而在AI训练与推理过程中,数据呈现出高频交互特征——大模型训练需要持续吞吐海量数据,推理阶段涉及大量中间状态的频繁访问,而向量检索则带来高比例的小块随机读写。数据不再严格遵循既有分层结构。
第二,应用场景高度分化,基础大模型正在向行业大模型演进。银行的风控数据、车企的自动驾驶数据、医学影像系统数据,每个场景对存储的要求都不一样:有的需要超高吞吐,有的需要极低延迟,有的需要在边缘节点上实现高密度数据处理。
第三,系统容忍度显著降低。当计算集群扩展至万卡级规模时,任一环节的性能波动都可能拖慢整体训练效率。与此同时,边缘侧原本受限的内存带宽,还需匹配接近GPU级别的计算能力。存储不再只是数据的承载介质,而成为影响数据流动效率、进而决定训练与推理性能的关键因素。
在他看来,这种变化的根源,在于计算体系中心的迁移。
“过去是CPU在做调度,GPU只是执行单元;但现在,在AI系统里,GPU本身开始承担调度角色。”他说,“如果数据还要经过CPU中转,就相当于在两条高速公路之间接了一座很窄的桥,这个环节会成为瓶颈。”
吴子宁博士用一个形象的比喻来说明这一变化:“一辆车即使最高速度很高,如果大部分时间处于等待状态,发动机空转,那么它的实际效率依然很低。”
在AI计算体系中,“等待”正成为日益突出的瓶颈。计算单元具备极高的算力,但数据往往滞留在存储侧——如果无法被高效调度至计算单元,就会导致算力资源闲置与浪费。
“存储不仅要完成数据的持久化,还需要具备对数据进行高效组织与调度的能力。”吴子宁博士指出,“我们已经开始探索,在存储侧引入更智能的控制机制,对数据布局与访问路径进行优化。”
这一思路指向一个明确方向:存储系统需要针对AI负载进行系统性优化。
过去几年,行业已展开多路径探索。例如,通过优化固件与FTL(Flash Translation Layer)算法,使SSD在高并发场景下保持稳定的延迟分布;通过重构主控架构,提升数据调度效率;以及借助CXL(Compute Express Link)协议扩展内存语义,使闪存在特定场景中承担部分内存功能。
这些技术路径最终汇聚为一个共同的产品方向——AI SSD,这是整个行业对同一核心问题的多元回应:当计算范式发生变化,存储体系如何协同演进?
在吴子宁博士看来,一项技术是否值得投入,可以从三个维度判断:技术合理性、商业可行性与生态兼容性。
以此衡量AI SSD,其可行性便清晰起来——
从这个角度看,AI SSD的出现具有内在必然性——它并非对现有体系的颠覆,而是在既有架构基础上,针对新型负载特征进行的系统性优化。
正如当年闪存逐步取代小尺寸机械硬盘——技术进步提供了替代能力,而应用需求则明确了替代方向。
在这一过程中,能够深入理解AI负载特征,并据此构建差异化存储方案的厂商,将更有可能在下一轮系统级重构中占据有利位置。
03
先理解负载特征,再定义产品形态
2025年,这场“系统重排”已经拉开序幕。
从铠侠公布AI SSD中长期路线图,到三星、海力士、美光陆续推出针对AI场景优化的超高速颗粒产品;从FMS存储峰会上多家厂商的同台竞技,到华为在上海发布“AI SSD,加速智能经济涌现”——几乎在同一时间点上,全球主要存储厂商都在朝同一个方向发力。
当“AI SSD”成为行业共识,英韧必须回答一个更具体的问题:差异化路径何在?
在英韧内部,对这个问题的思考始于对AI负载的拆解。AI并非单一应用,而是一组差异显著的计算任务,大致可以归纳为三类典型负载形态。
第一种是训练。大模型训练的特征是持续、稳定且高带宽的数据流动,样本被反复读取、重排与迭代,这个场景对顺序吞吐能力高度敏感,但对极端微秒级延迟的要求相对次要。稳定的大规模供给,比瞬时极限性能更重要。
第二种是推理,这是变化最剧烈的部分。推理阶段的数据访问呈现高度碎片化特征,包括大量小块随机读写、KV Cache频繁交换以及向量索引调用。此时,存储从“批量搬运”转变为“实时响应”,系统性能对尾延迟高度敏感,一旦尾延迟失控,将直接影响整体服务质量。
第三种是数据归集与管理。随着模型规模扩大,数据留存、分层与生命周期管理成为刚性需求。该场景对延迟的要求相对宽松,但对容量密度与单位成本极为敏感,需要在规模与成本之间取得平衡。
这三类负载之间,并不存在一个能够同时最优覆盖的统一设计方案。
因此,英韧的策略是针对不同负载特征,设计具备差异化能力的主控架构与产品组合。
在通用训练场景中,采用TLC NAND的“洞庭-N3”更强调带宽与稳定性的平衡,顺序读取带宽在14.5GB/s以上,随机读取能力约3.4M IOPS,适合作为训练集群中的常规数据层。
针对容量敏感型场景,则引入基于QLC NAND的“洞庭-N3Q”。在更高存储密度的前提下,通过控制器与纠错机制优化,将单盘容量提升至64TB,同时维持超过14GB/s的顺序读取水平,用于降低单位容量成本。
而在对响应时间更敏感的推理侧,则采用“洞庭-N3X”这一低时延方案。该产品结合XL-Flash与SLC NAND,在随机访问下可实现约13微秒读取延迟、4微秒写入延迟,随机读取性能超过3.5M IOPS,随机写入性能可达1.6M IOPS,且具备最高100 DWPD的耐用性,更适合高并发、小请求场景。
该产品的实际表现,近期已获得第三方测试验证。
英韧的洞庭-N3X参加了ODCC AI存储实验室“面向AI推理场景KV Cache的数据存储测试项目”,SSD能支持GPU Direct Storage (GDS),采用GPU直接调度的方式,构建“以存代算”的第三级缓存。
实测数据显示:采用英韧科技AI SSD(洞庭-N3X)后,能够有效打破“内存墙”,让数据更快供给 GPU,H20平台的系统吞吐量提升约12倍,RTX 6000D平台的系统吞吐量提升约20倍。在10K输入长度下,原生架构由于需要重新计算或处理显存溢出,存在一定延迟,但采用N3X后,首Token延迟可从数秒级缩短至毫秒级。随着输入长度从100 tokens增加到100K tokens,存储压力呈线性甚至指数级增长,而输入文本越长,N3X对系统换入换出效率的提升效果越明显。
这一结果表明:当AI负载规模跨越特定阈值后,存储将从辅助角色转变为关键性能变量;而针对推理场景深度优化的AI SSD,可以显著改变系统整体效率。
在英韧看来,这三类产品的划分并非传统意义上的“高、中、低端”区隔,而是对不同数据访问模式的针对性响应,是基于负载模型推导的工程结果,而非简单的参数堆叠。
真正的挑战,在于如何在系统层面实现这些差异化能力的协同。
随着接口标准持续演进——从PCIe 4.0到5.0,并迈向即将到来的6.0——SSD不仅需要提升物理带宽能力,更需要同步增强主控的并发调度与队列管理能力。否则,底层介质性能的提升将难以转化为系统级收益。
“必须抓住每一代接口升级的窗口期。”吴子宁博士也强调,更具挑战性的部分在于内部架构的重构:在高并发场景下如何避免队列阻塞?如何有效控制尾延迟?如何在不同介质特性之间实现负载均衡?
这些问题,最终都指向一个具体的性能目标。
“要把吞吐量从现在的300万IOPS,在两年后提升至1亿IOPS,这相当于接近两个数量级的跃升。”吴子宁博士进一步阐释道,“单靠更先进的芯片制程,无法支撑这一量级的性能跨越,关键在于架构层面的重构。我们需要在数据调度路径上实现更精细的优化与更高的效率,推动介质层与接口层之间的深度协同,将数据从存储介质到主机接口的整条通路压缩至最短,从而在根本上降低访问延迟。”
这些问题,构成了AI SSD主控芯片的研发关键。
04
方向靠校准,路径需修正
围绕“内部架构重排”,英韧的探索正在延伸至下一代产品。
2026年,英韧计划推出PCIe Gen6的新一代产品,将融合下一代NVMe与CXL双协议,在带宽实现翻倍的同时,512B随机读取性能有望达到千万IOPS量级。
其中,CXL(Compute Express Link)尤为关键。该协议通过引入内存语义,实现高速互联,构建更大的存储池。从更广义角度看,这一方向正指向“存算一体”的演进路径——即更高效地将数据从存储侧调度至计算侧。
“这不仅是硬件问题,软件体系同样在同步演进。”吴子宁博士指出。
与此同时,英韧也在和颗粒原厂开展更深度的合作——因为无论主控多强,没有好的介质配合,一切都无从谈起。
从PCIe 3.0到5.0,再到即将到来的6.0;从TLC到QLC,再到XL-FLASH与SLC的协同;从单一的SSD主控,到NVMe与CXL双协议的融合——英韧的技术路线,始终围绕同一个核心问题展开:当数据的调度和使用方式变了,存储该如何重新设计?
对于英韧当前的产品方向,吴子宁博士在对话中表示:“大方向需要通过经验与市场反馈来校准,避免战略性错误;而在具体路径上,则必须持续迭代与修正。”
这个态度,或许比任何产品参数都更能说明问题——在AI带来的新一轮“系统重排”中,没有人能预知终点。唯一能做的,是在变化中不断调整自己的位置。
(本文作者长期关注存储行业,对周期波动与企业分化有持续追踪,欢迎添加微信EATINGNTAE交流探讨。)
热门跟贴