打开网易新闻 查看精彩图片

AI 存储的超级周期,正在加速到来。

近期,存储芯片价格迎来集体上行。TrendForce 预测,2026 年一季度 NAND 闪存价格预计上涨 55%—60%,DRAM 价格涨幅或高达 90%—95%。存储价格的双重上行,正在迅速点燃整个赛道。

在这一轮存储超级周期中,又一家AI 存储公司开始冲刺资本市场。1 月 27 日,星辰天合正式向香港交易所递交招股书。

从历史数据看,这家公司并非一开始就处在高速增长区间。

2023 年至 2024 年,星辰天合的收入分别为 1.67 亿元和 1.72 亿元,年增长率仅为 3.4%。但进入2025年后,增长拐点开始显现。2025 年前三季度,公司实现营收1.95亿元,同比增长65.4%,增速明显加快。

在行业位置上,星辰天合已经站进第一梯队。按2024 年装机量计算,公司位列国内分布式 AI 存储市场第二位,仅次于华为,市场份额为10.4%

在AI 算力、数据规模与存储需求同步放量的背景下,AI 存储正从“配套设施”走向“核心基础设施”。

今天,我们就来讲讲AI存储这条超级赛道以及星辰天合。


在AI时代,存储变了

在AI 时代,存储这件事正在变得越来越重要。

从数据采集、清洗,到模型训练、推理,再到结果回流与二次训练,AI 生命周期的每一个环节,都高度依赖高效、稳定的数据读写能力。GPU 能算多快,模型能迭代多顺,最终并不只取决于算力规模,也取决于数据是否能够持续、及时地被送达。

但问题也由此出现。

过去,云计算时代形成的主流存储架构,并非为AI 工作负载设计。

简单来说,传统存储主要服务于事务型与归档型场景,强调容量扩展、成本控制和访问可靠性,更适合静态数据的长期保存和低频访问。

当其面对AI 所需的高并发、多节点并行访问和低延迟读写需求时,性能瓶颈迅速显现,算力释放随之受限

比如在训练端,当前主流大模型的参数规模普遍达到十亿级以上,训练集群往往由上千甚至上万块AI 芯片并行运行。

训练过程中,芯片需要持续、高频地读取海量数据,并周期性保存模型快照,在短时间内形成高度集中的读写压力。同时,大量小文件的随机访问,也显著加重了存储系统在元数据管理和响应时延上的负担。

在传统架构下,这类高并发、低延迟负载难以被有效支撑,GPU 不得不频繁“等数据”,算力利用率下降,训练效率被 I/O 吞吐锁死。

推理侧的问题同样也很明显。

更长的上下文窗口、更复杂的多轮交互,正在成为大模型演进的方向。为支撑这些能力,模型在推理过程中需要保留大量中间计算结果作为缓存,而这类缓存通常只能放在AI 芯片显存中,才能满足性能要求。

随着模型复杂度持续提升,缓存规模势必快速膨胀,甚至逼近或超过单卡显存的物理上限。

由于传统存储在性能上无法接近显存级访问速度,企业只能通过持续堆叠昂贵的AI 芯片来“买显存”,推理成本长期居高不下,也暴露出显著的结构性优化空间。

另一重制约,来自数据本身的组织方式。

在企业内部,数据往往分散在多个系统中:原始数据沉淀在大容量、低成本存储中,而训练与推理依赖高性能存储支撑。系统之间频繁的数据迁移,不仅耗时长、成本高,还容易引发数据孤岛、版本混乱与治理复杂度上升。

在这一背景下,AI 存储的价值开始凸显。

所谓AI 存储,是指围绕 AI 工作负载进行专门设计和优化的数据存储系统,其核心目标是在超大规模数据环境下,同时满足高容量、高吞吐、低延迟和稳定性等多重要求

在AI 时代,企业长期积累的高价值专有数据,正在成为最难复制的核心资产。这也使得本地部署的 AI 存储具备独特意义:

一方面,可在安全可控的环境中管理数据,降低外泄与滥用风险;另一方面,本地部署支持数据持续回流和迭代,使企业能够围绕自身业务构建数据飞轮,逐步形成难以复制的智能壁垒。

从架构形态看,AI 存储大致可分为集中式分布式两类。

集中式存储以单一节点为核心,架构相对简单、运维成本较低,适合数据规模较小、并发需求有限的场景。但随着数据体量、并发强度和算力规模持续扩大,其在性能和扩展性上的瓶颈会迅速显现。

分布式AI 存储则通过多节点协同,将数据分片存储在不同节点上,实现并行读写和负载均衡。这种架构可以在容量和性能上横向扩展,并通过副本与容错机制,在高负载条件下保持系统稳定。

在AI 工作负载走向大规模、长周期和高并发的趋势下,分布式存储正在成为训练与推理的主流选择。星辰天合,正属于这一类分布式 AI 存储厂商。

从市场数据看,这一趋势已经越来越明显了。根据灼识咨询数据,2024 年中国分布式AI存储装机量达到10.3EB,预计到2030年将增长至 60.5EB,复合年增长率为34.3%。

装机规模扩张的同时,市场收入也在同步放大。2024年,中国分布式AI存储市场规模约为100 亿元,预计到2030年将增长至631亿元

按2024 年装机量计算,国内分布式AI存储市场前五大解决方案供应商合计占据 52.3% 的市场份额。

其中,本次IPO的主角星辰天合高居第二,也是最大的独立分布式AI 存储解决方案供应商,市场份额为10.4%

25年前三季度营收增长65%, 毛利率达63.7%

2023 年至 2024 年,星辰天合的收入增长相对平缓,年收入由 1.67 亿元小幅增至 1.72 亿元,增速仅为3.4%。

但进入2025 年后,公司增长节奏明显加快。2025 年前三季度,公司实现营收1.95 亿元,同比增长65.4%

从收入结构看,公司的业务主要分为AI 存储解决方案与AI 存储服务两大类。

其中,AI 存储解决方案按应用场景可进一步拆分为两类:一类是面向数据汇聚与长期留存的 AI 数据湖存储,另一类是面向算力释放与性能加速的AI 训推存储

AI 数据湖存储则主要承载 AI 生命周期中需要长期保存的“温数据”和“冷数据”,包括训练样本归档、历史模型版本、运行日志以及中间特征文件等。

这类数据访问频率相对较低,但体量庞大、保存周期长,其核心目标是在确保数据安全与可靠性的前提下,尽可能降低长期存储成本。

相比之下,AI 训推存储主要服务于模型训练和推理阶段,对“热数据”的高并发访问能力提出更高要求,是决定算力是否能够被充分释放的关键环节。

在这一阶段,数据需要被频繁、快速地读取和写入,一旦存储性能跟不上,算力资源就会出现空转。

因此,AI 训推存储的核心价值在于实现高吞吐、低延迟和强一致性的数据访问能力,本质上是让 GPU 算得更快、更稳。

除解决方案外,AI 存储服务主要以运维服务形态存在,对存储系统提供覆盖全生命周期的管理与支持。

从增长来源看,AI 数据湖存储成为公司收入加速的主要驱动力。2025 年前三季度,公司 AI 数据湖存储解决方案收入达到 8977 万元,同比增长 107%。

招股书显示,该业务的快速增长来自“量价齐升”的共同推动。

在订单数量方面,2025年前三季度,公司 AI 数据湖存储解决方案订单数量达到371份,较2024年同期增长45.49%。与此同时,平均售价也由约17 万元提升至24.1万元

公司解释称,一方面,市场需求扩张带动订单数量增加;另一方面,随着技术持续升级,以及按每宗订单计算的平均安装容量(以TB 计)提升,部分解决方案的平均售价随之上调。

随着AI需求开始增长,公司也在试图定义新一代AI 基础设施架构。2026 年 1 月,星辰天合正式发布AIMesh。

招股书介绍,AIMesh 定位为横跨 AI 数据湖存储与 AI 训推存储的统一软件定义层,其目标是构建一个统一的 AI 数据与记忆体体系,通过软件方式整合和调度不同类型的存储与记忆体资源,从系统层面提升 AI 工作负载的整体效率与可扩展性。

具体而言,AIMesh 重点针对 AI 系统中的三项典型瓶颈进行优化:

一是MeshFS,面向 AI 训练场景的高速数据层,用以缓解因数据传输速率不足而形成的 I/O 瓶颈;

二是MeshFusion,通过扩展可用记忆体容量,支撑大上下文推理场景,缓解“内存墙”对复杂推理与长对话能力的限制;

三是MeshSpace,用于统一管理和调度全球范围内的海量数据集,降低跨地域数据传输与管理的复杂度和成本,从而缓解数据“重力墙”问题。

在盈利能力方面,星辰天合呈现出与多数ToB 公司不同的特征,其毛利率水平相对较高。

2023 年和 2024 年,公司毛利率分别为 55.4% 和 63.7%;2025 年前三季度,毛利率维持在 63.7%的高位。

从业务结构看,2024 年 AI 数据湖存储和 AI 训推存储的毛利率分别为 59.2% 和 65.6%,AI 存储服务毛利率则进一步提升至 63.7%。

公司解释称,毛利率的提升主要源于规模效应逐步显现。

在高毛利的支撑下,公司盈利状况已明显改善。2023 年和 2024 年,公司分别亏损 1.8 亿元和 0.84 亿元;到 2025 年前三季度,公司实现净利润 811 万元,实现扭亏为盈。

总的来说,星辰天合的业绩爆发,本质上是AI 产业对存储角色的一次重新定义。在传统视角中,存储仅是数据的静态“仓库”,但在大模型时代,它已演变为决定训练效率与推理体验的关键“加速器”。

文/朗朗

PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。