打开网易新闻 查看精彩图片

AI芯片开发商Cerebras Systems正式递交上市申请

晶圆级AI芯片WSE-3的研发商Cerebras Systems公司近日正式提交了上市申请文件。

此次申请距离该公司首次尝试上市约18个月。Cerebras于2024年9月首度提交首次公开募股申请,但随后于去年底撤回了相关文件,彼时公司解释称,原IPO申请文件"已无法准确反映公司当前的业务状况"。

从财务数据来看,2024年该公司在2.903亿美元的营收下亏损4.85亿美元,而去年则实现扭亏为盈,净利润达8790万美元。与此同时,公司营收同比增长76%,达到5.1亿美元。

在最新提交的IPO文件中,Cerebras披露已从摩根士丹利获得1.25亿美元的循环信贷额度,该资金将用于支持与数据中心开发商及运营商之间的合作项目。目前,Cerebras正积极扩展数据中心容量,以支撑其训练云和推理云服务的业务增长——这两项服务均为用户提供托管AI基础设施的访问接入能力。

上述服务的核心驱动力来自公司旗舰产品WSE-3芯片。该芯片是一款AI加速器,其尺寸是英伟达2024年推出的高端显卡B200的58倍,WSE-3内置4万亿个晶体管,分布在90万个计算核心上。

Cerebras在文件中表示,摩根士丹利将在IPO完成后将循环信贷额度上调至最高8.5亿美元。此外,公司还披露已从OpenAI Group PBC获得一笔单独的10亿美元贷款。

去年12月,ChatGPT的开发方OpenAI同意从Cerebras采购价值750兆瓦的推理基础设施,而Cerebras今日进一步透露,该合同总价值超过200亿美元。此外,该协议还赋予OpenAI在2030年前额外增加1.25吉瓦计算容量的选择权。

Cerebras已向OpenAI发行了最多3340万股的认股权证,若这家大语言模型开发商实现到2030年采购2吉瓦计算容量的计划,上述权证将正式归属。Cerebras在IPO文件中表示,该合同"代表了未来数年内我们预计营收的重要组成部分"。

上个月,Cerebras还与另一重量级客户达成了备受瞩目的芯片合作协议。亚马逊云科技(AWS)同意将WSE-3部署于其数据中心,作为新型"解耦架构"方案的一部分。

大语言模型处理提示词的工作流程分为两个阶段,即预填充阶段和解码阶段。在AWS的解耦架构中,预填充计算将由其自研的AWS Trainium芯片负责完成,WSE-3则专门承担解码阶段的工作。

解码计算与预填充工作流程类似,但对内存带宽的需求更高——内存带宽衡量的是数据在芯片逻辑电路与内存电路之间的传输速度。WSE-3可提供每秒27拍字节的内存带宽,是英伟达NVLink互联技术所提供带宽的200倍以上。

Cerebras在IPO文件中表示,公司产品路线图"包括开发解耦推理服务解决方案",并指出"解耦推理将使Cerebras能够与其他架构协同运作,作为解码阶段的高性能引擎,同时让其他系统负责预填充。"

文件还暗示,Cerebras的解耦推理平台未来将兼容Trainium以外的其他第三方芯片。据悉,该计划中的产品方案可能基于CS-3的某一版本构建。CS-3是Cerebras面向数据中心的计算设备,集成了单块WSE-3芯片及配套散热设备、电源管理组件等支撑硬件。其内置的Cerebras集群管理器软件工具可将数千台CS-3设备连接成一个统一集群。

Cerebras计划在纳斯达克上市,股票代码为"CBRS"。

Q&A

Q1:Cerebras Systems的WSE-3芯片性能如何?

A:WSE-3是Cerebras的旗舰AI加速器芯片,其尺寸是英伟达高端显卡B200的58倍,内置4万亿个晶体管,拥有90万个计算核心,内存带宽高达每秒27拍字节,是英伟达NVLink互联技术的200倍以上,在处理AI推理任务的解码阶段具有显著优势。

Q2:Cerebras Systems与OpenAI达成了怎样的合作协议?

A:去年12月,OpenAI同意从Cerebras采购750兆瓦的推理基础设施,合同总价值超过200亿美元。协议同时赋予OpenAI在2030年前额外增加1.25吉瓦计算容量的选择权。Cerebras还向OpenAI发行了最多3340万股认股权证,前提是OpenAI须完成到2030年采购2吉瓦计算容量的计划。

Q3:Cerebras Systems的解耦推理架构是如何运作的?

A:在与AWS合作的解耦架构中,大语言模型处理提示词的工作流程被拆分为预填充和解码两个阶段。AWS自研的Trainium芯片负责计算量较大的预填充阶段,而对内存带宽需求更高的解码阶段则由WSE-3负责。Cerebras计划未来将该架构扩展至支持更多第三方芯片。