公众号记得加星标⭐️,第一时间看推送不会错过。

在The Next Platform ,我们虽然对计算引擎、网络芯片和存储设备情有独钟,但最终重要的是系统架构师如何将这些组件整合到系统中,从而实现具有经济、文化和生物学影响的具体且实际的功能。一些系统架构师喜欢自行集成最佳组件,以获得一定程度的协同设计控制权;而另一些架构师则希望购买一套完整的系统,以便随着业务增长进行扩展,并尽快获得所需组件。

韩国人工智能芯片初创公司Rebellions AI的下一阶段扩张计划将重点放在服务系统买家上,这与该公司希望在本土市场之外销售大量人工智能加速器和完整系统的目标相符。对于那些尚未研发或生产自主人工智能加速器的国家(这意味着世界上大多数国家都属于这种情况),或者希望通过混合使用多种人工智能加速器来分散风险的国家来说,这一点尤为重要。鉴于基于英伟达引擎的系统成本高昂且供应稀缺,各方都在寻求一种可扩展且不会造成财务负担的架构。

Rebellions AI计划在韩国以外的市场拓展业务,将完整的系统推向市场——这得益于其与ODM厂商以及很可能包括一些OEM厂商的合作。Rebellions AI刚刚完成了一轮4亿美元的D轮融资,这笔资金将用于支持其业务扩张。该公司称此轮融资为“IPO前”融资,这意味着Rebellions AI的上市指日可待。不像一些初创公司那样,Rebellions AI会拖延E轮、F轮甚至G轮融资。Rebellions AI何时何地上市,目前尚未透露相关信息,值得关注。

Rebellions AI 于 2025 年 9 月完成了 C 轮融资,时间并不算久远。此次 2.5 亿美元的投资来自 CPU 知识产权公司 Arm,该公司刚刚发布了面向数据中心服务器的 AGI CPU,但迄今为止,Arm 尚未涉足自主研发用于 AI 加速的 GPU 或 XPU。这对像 Rebellions AI 这样的 AI 初创公司来说是件好事,因为它们需要与基于 Arm 的 CPU 以及 x86 主机选项紧密集成,这与英伟达在其系统设计中的做法类似。

在本次D轮融资中,总部位于首尔的未来资产金融集团(Mirae Asset Financial Group)领投。该集团是一家资产及财富管理、投资银行和人寿保险公司,管理资产规模达7300亿美元。由于韩国的信息披露法,我们得知未来资产金融集团在本轮融资中投资了约1.99亿美元;两年前,未来资产金融集团也曾参与Rebellions AI的B轮融资。韩国国家增长基金(South Korean National Growth Fund)于今年3月设立了一项名为“K-Nvidia培育计划”的大型科技投资项目,计划在未来五年内投入995亿美元,其中约十分之一将用于投资人工智能相关初创企业。K-Nvidia培育计划的首笔投资投给了Rebellions AI,金额约为1.66亿美元。韩国开发银行(Korea Development Bank)也投资了3300万美元,其余投资方则完成了剩余部分。

自 Rebellions AI 于 2020 年 9 月成立以来,累计融资额已超过 8.5 亿美元。公司发展迅猛,目前估值约为 23.4 亿美元。Rebellions AI 目前拥有 300 多名员工,并正积极拓展国际市场,寻求韩国以外的发展机遇。

具体来说,这意味着要将 Rebel100 计算引擎、RebelRack 系统和完整的 Rebel 机器集群(自然而然地称为 RebelPod)交付给美国的云服务商、新云服务商、电信公司、其他服务提供商和人工智能实验室,因为目前美国对廉价人工智能推理的需求正处于狂热状态。

我们在2025年12月底深入研究了Rebel计算引擎架构。值得注意的是,韩国内存制造商三星和SK海力士都是Rebel AI的投资方,三星负责Rebel计算引擎的芯片封装,而Arm也是投资者之一。迄今为止,Rebel系统一直使用AMD Epyc X86处理器作为主机处理器,但Arm两周前出席了Arm AGI CPU的发布会,并积极支持Arm自主研发的、专为AI设计的服务器CPU,用于RebelRack和RebelPod系统。对于那些希望在主机中使用Arm CPU的用户来说,Arm CPU无疑是一个理想的选择,就像Nvidia以及许多超大规模数据中心和云服务商为AI系统所做的那样。

想法是这样的:

打开网易新闻 查看精彩图片

我们期待对“每瓦TPS提升约2倍”这一现象做出解释,并指出Arm AGI CPU与AMD Epyc CPU相比有何不同。

这里有一个演示,展示了两个计算引擎如何运行人工智能工作流程,该演示曾在 3 月 24 日的 Arm Everywhere 活动上展出:

打开网易新闻 查看精彩图片

“Arm 是我们的投资方,这延续了我们超越单纯投资的战略合作关系的主题——这些交易具有战略意义,” Rebellions 首席商务官 Marshall Choy告诉The Next Platform。“坦白说,在当今人工智能领域,大量资本涌入。我们专注于通过这些合作关系还能取得哪些其他成就。我认为,拥有多个合作渠道更有益,不仅对我们自己,对我们在生态系统中与之合作的各方也是如此。”

如上图所示,RebelServer 内置八个 Rebel100 AI 推理引擎,并由两颗 CPU 提供支持。这种 2 x 8 的设计即使在今天,也是商用级风冷 AI 系统的标准配置。(Nvidia 出售的机架式机器对于大多数人来说仍然相当高端,只有极少数顶级的超大规模数据中心、云平台和 AI 模型构建者才能使用。)

RebelRack 拥有四个这样的节点,总共 32 个加速器,而且它们之间的间距足够大,使得整个机架仍然可以利用数据中心的冷空气进行冷却。(更高的密度可能需要液冷。)大多数机构的数据中心都没有液冷系统,因此这是一个很好的起点。Choy 表示,更重要的是,机器投入使用 48 小时后,就能连接到数据并开始进行推理。

RebelRack 系统在 FP8 精度下可提供 16 petaflops 的 AI 推理能力,在 FP16 精度下可提供 8 petaflops 的 AI 推理能力。每个 Rebel100 拥有 512 MB SRAM 和 144 GB HBM3E 堆叠式内存,内存带宽为 4.8 TB/s,因此 RebelRack 总共拥有 4 GB SRAM、4.5 TB 的 HBM3E 内存和 153.6 TB/s 的 HBM 带宽。每个服务器节点都拥有 400 Gb/s 的以太网带宽(8 个 400 Gb/s 端口),Rebel100 卡之间以及 Rebel100 卡与主机 CPU 之间通过 PCI-Express 5.0 全互连连接。RebelRack 的典型功耗为 5 千瓦,最大功耗为 7 千瓦。

这张 RebelRacks 的图片显示它们的密度更高:

打开网易新闻 查看精彩图片

从这张 RebelPod 的图片中,你看不到机架内部,所以很难说每个机架里有多少台机器:

打开网易新闻 查看精彩图片

RebelPod 由多个 RebelRack 机架组成,并通过 800 GB/秒的以太网后端网络连接,前端则通过 25 GB/秒的网络连接到其他系统中的数据。RebelPod 提供 2、4、6、8 和 16 个机架的配置,单个系统镜像中可容纳 64 到 1024 个加速器,用于运行超大规模的推理工作负载。

我们期待看到这套系统在实际人工智能推理工作负载中的表现。Rebellions AI 表示,其架构专为大规模应用而设计,而凭借最新一轮融资,它有机会证明这一点。

(来源:编译自nextplatform)

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4369内容,欢迎关注。

加星标⭐️第一时间看推送

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

求推荐

打开网易新闻 查看精彩图片