公众号记得加星标⭐️,第一时间看推送不会错过。

Cerebras上市首日股价飙升逾一倍。这为备受期待的AI企业IPO大年拉开了序幕。

这家芯片公司的股票开盘报350美元,随后在最新交易中迅速攀升至385美元,一度触发停牌。此举推动该公司狂揽约56亿美元资金,一举创下今年来规模最大的IPO纪录。

周三晚间,Cerebras Systems将其首次公开募股(IPO)发行价定为185美元,远超市场预期。一举筹集约56亿美元,成为今年规模最大的IPO。

市场对Cerebras股票的追捧,折射出投资者对AI领域的狂热。近几周来,芯片股一路高歌猛进,推动美国主要股指屡创新高。

业内两大巨头OpenAI和Anthropic正考虑在今年下半年进行IPO。此外,埃隆·马斯克(Elon Musk)的SpaceX近期收购了Grok聊天机器人的开发商xAI,并计划于6月挂牌上市。预计这三家公司的IPO募资规模都将超越Cerebras。

面对本周早些时候投资者的强劲需求,Cerebras将发行价区间从原定的115至125美元上调至每股150至160美元。这家专注于为AI模型提供算力的公司还将发行股数从2,800万股增至3,000万股。

据知情人士透露,许多渴望在IPO阶段认购Cerebras股票的投资者最终空手而归,只能转战公开市场买入。上述人士称,即便是一些成功获配的基金,拿到的股数也远不及预期。

早盘的巨大涨幅给那些正瞄准IPO的AI公司上了一课:即便在私募市场已能拿下极高估值,公开市场给出的估值可能会更加惊人。

Cerebras的核心产品是一款名为“晶圆级引擎”(Wafer-Scale Engine)的方形硅芯片。它的体积远超大多数现代AI处理器,大小堪比一本儿童绘本。这款芯片上密密麻麻地集成了4万亿个晶体管,并配备了44 GB的SRAM。SRAM是AI处理中常用的一种内存,在单一芯片上配备如此庞大的容量实属罕见。

该公司表示,这款引擎堪称执行“快速推理”的绝佳利器。快速推理是指AI模型迅速解析提示词并作出响应的过程。今年1月,Cerebras达成了一项价值超过100亿美元的交易,将为OpenAI提供算力。OpenAI联合创始人山姆·阿尔特曼(Sam Altman)和格雷格·布罗克曼(Greg Brockman)均是Cerebras的重要股东。

仅仅两个月后,Cerebras又拿下一家大客户,与亚马逊云科技(Amazon Web Services)达成了多年期的合作伙伴关系。该交易的具体财务条款未予披露。

Cerebras联合创始人兼首席执行官安德鲁·费尔德曼(Andrew Feldman)表示,公司正在押注一个趋势:随着AI计算速度不断提升,客户将心甘情愿为更高效的处理器买单。

“慢速搜索的市场有多大?零,”费尔德曼在3月份的一次采访中直言。

一些行业专家则发出警告,指出Cerebras可能过于依赖少数几家客户。在持续吸引新客户大规模部署其定制芯片方面,该公司未来或将面临重重阻碍。

半导体工程师兼精品芯片研究公司SemiExponent的创始人维克拉姆·塞卡尔(Vikram Sekar)在最近的一份通讯中写道:“投资者关心的并不是‘Cerebras是否会撼动英伟达(Nvidia)’,而是这种全定制架构能否在OpenAI的战略大单之外,进一步拓宽收入版图。”

Cerebras在一份证券监管文件中坦言,预计未来几年内,OpenAI仍将贡献其总收入的“很大一部分”。

让 Cerebras 声名鹊起的那场赌局

Cerebras Systems的里程碑并非一蹴而就。它历经十余年,采用了截然不同的芯片制造方法,并经历了两次IPO尝试才最终成功。

Cerebras Systems 由前 SeaMicro 负责人 Andrew Feldman 于 2015 年创立,其首批芯片与当时的 GPU 或 AI 加速器截然不同。

当时,大多数高端GPU都采用面积约为800平方毫米的芯片,这些芯片是从更大的晶圆上切割下来的。通常会将八个或更多这样的GPU通过高速互连技术(例如NVLink)连接在一起,使它们能够汇集资源,像一个大型加速器一样运行。

与其将晶圆切割成更小的芯片然后再重新连接起来,Cerebras 公司想,为什么不把所有的计算功能都蚀刻到晶圆大小的芯片上呢?于是,晶圆级引擎(WSE) 诞生了,这是一款面积达 46,225 平方毫米的巨型芯片——大约相当于一个餐盘的大小。

Cerebras 的第一批芯片不仅尺寸更大;它们是专门为 AI 训练而设计的,并配备了一种新型的计算引擎,旨在加速深度学习中常见的稀疏矩阵乘加运算。

这种硬件稀疏性利用了神经网络参数的大部分最终都会变为零这一事实,使得 Cerebras 能够将其第一代 WSE 加速器的有效计算输出从 2.65 16 位 petaFLOPS 提高到 26.5。

一年后,Nvidia 在其 Ampere 架构中增加了对稀疏性的支持,但它只适用于特定的比例(2:4),限制了其有效性,使其只能用于特定的用例。

为了训练模型,最多可以将 16 个这样的芯片通过高速互连连接在一起。这一点也至关重要,因为与将模型权重存储在 HBM 或 GDDR 内存中的 GPU 不同,Cerebras 的芯片几乎完全依赖于片上 SRAM。虽然 SRAM 的速度极快,这也是它被几乎所有现代处理器用作缓存的原因,但它的空间效率并不高。

虽然 Cerebras 的首款晶圆级加速器理论上可以达到每秒 9 PB 的内存带宽,但其容量却仅限于 18 GB,而当时 Nvidia 的 GPU 容量已经达到 32 GB,并且即将跃升至每芯片 40 GB 甚至 80 GB。

尽管如此,这种方法的性能已经足够出色,因此 Cerebras 在 2021 年推出的第二代晶圆级加速器中,加倍采用了这种架构。

虽然WSE-2 的物理尺寸并没有增大,但采用台积电的 7nm 工艺技术使该公司能够将晶体管数量、计算密度、SRAM 容量和带宽提高一倍以上。

这些芯片也支持更大的集群,最多可扩展到 192 个,但实际上这些集群通常较小,每个站点 16 到 32 个系统。

大约在同一时期,Cerebras 引起了总部位于阿联酋的云计算提供商 G42 的关注,后者迅速成为其最大的投资方。到 2023 年年中,这家芯片初创公司已获得价值 9 亿美元的订单,用于建设九个超级计算站点,这些站点总共拥有 36 exaFLOPS 的超稀疏人工智能计算能力。

一年后,Cerebras 采用台积电的 5nm 工艺,推出了WSE-3。虽然内存和带宽只有小幅提升,但计算能力再次翻了一番,在 16 位精度下,稀疏计算能力达到了 125 petaFLOPS(密集计算能力为 12.5 petaFLOPS)。

Cerebras 的 CS-3 系统目前已实现最大规模的部署,并为 G42 建造的 Condor Galaxy 集群的大部分以及北美和欧洲的几个新站点提供动力。

直到 2024 年中期,Cerebras 的主要重点一直是训练,但随后该公司宣布推出精品推理即服务产品,以与 Groq 和 SambaNova 等竞争芯片初创公司的产品相抗衡。

事实证明,Cerebras 最新 AI 加速器的庞大 SRAM 容量不仅使其成为强大的训练加速器,而且特别适合高速 LLM 推理。

Cerebras 的第三代晶圆级加速器拥有远超实际需求的内存带宽。该芯片的内存速度高达 21 PB/s,比英伟达新款 Rubin GPU 快近 1000 倍。

这一点,再加上一些推测性解码技术,使得 Cerebras 生成令牌的速度远超当时任何基于 GPU 的系统。即使在今天,Cerebras 仍然稳居全球推理速度最快的系统之列。

根据Artificial Analysis 的数据,Cerebras 的工具包在运行 GPT-OSS 120B High 时每秒可以生成超过 2200 个代币,比下一个封闭式 GPU 云 Fireworks 快 2.8 倍。

Cerebras当时并不知道,它的推理平台将会发展成远超预期的庞大业务。2024年9月,该公司向美国证券交易委员会(SEC)提交了S-1上市申请。然而,几乎一年后,费尔德曼悄悄撤回了S-1申请,推迟了IPO。

他的理由是什么?公司最初的S-1文件令人担忧,因为它显示G42贡献了87%的收入。但自Cerebras推出推理平台以来的一年里,该公司已斩获多家知名客户,包括Alphasense、AWS、Cognition、Meta、Mistral AI、Notion和Perplexity等。Feldman解释说,最初的S-1文件尚未反映出这些增长带来的财务成果。公司相信,未来会有更好的故事可以向投资者讲述。

自那时起,Cerebras 的推理平台不断发展壮大。该公司稳步扩大业务版图,同时宣布与 AWS 建立更深入的合作关系,并新增 OpenAI作为客户。

周四,这家初创公司正式在纳斯达克上市,股票代码为CBRS,在此过程中筹集了55亿美元。上市首日,该公司股价飙升近70%,投资者纷纷涌入这一人工智能热潮的新领域。

IPO是许多创业公司梦寐以求的事情,但很少有公司能够实现,尤其是在竞争激烈的半导体行业。

从技术角度来看,Cerebras 早就应该更新换代了。

推动该公司成功上市的 WSE-3 加速器已经相当老旧,其大量采用 SRAM 的设计所带来的架构优势正在缩小。

英伟达收购Groq 后,费尔德曼的长期竞争对手也拥有了自己的 SRAM 集成推理平台,而其他公司正在竞相追赶。

从这里我们只能猜测,但我们大胆猜测,Cerebras 的新股东们肯定希望尽快看到新的硅芯片问世。

根据现有的路线图,我们预计 WSE-4 将在浮点运算性能方面带来显著提升,尽管未必能达到 16 位精度。业界大部分厂商已经转向使用 FP8 和 FP4 等低精度数据类型。因此,如果 FP4 超稀疏计算达到 exaFLOP 级别,我们也不会感到丝毫惊讶。

稀疏性对LLM推理的实际作用究竟有多大,则是另一个问题。LLM推理历来并未从稀疏性中获益良多,但这从未阻止芯片制造商大肆宣传其稀疏浮点运算性能(FLOPS)。

我们还预计 Cerebras 将在其下一代晶圆级计算平台中集成更多 SRAM,可能会采用台积电的 3D 芯片堆叠技术来实现。WSE-3 的 44GB SRAM 容量仍然是其能够高效运行的机型数量的限制因素。

像 Kimi K2 这样的万亿参数模型需要 12 到 48 个 Cerebras 的 WSE-3 加速器,具体取决于模型权重的存储方式和已剪枝的参数数量,因此 SRAM 容量的任何增加都将大大提高其加速器的效率。

除了新的芯片,我们还可以期待看到更多类似于 Cerebras 与 AWS 合作的案例。

今年早些时候,AWS 宣布将把自己的 Trainium3 AI 加速器与 Cerebras 基于 WSE-3 的系统结合起来,以加快其推理平台的速度,这与 Nvidia 使用 Groq 的加速器所做的事情非常相似。

Cerebras当然也可以与AMD或其他任何芯片制造商合作开展类似项目。从这个意义上讲,Cerebras可以将自己的芯片作为解码加速器,把推理流程中带宽密集型的部分卸载到自己的芯片上,而其他部分则负责处理计算密集型的提示处理。

然而,Cerebras 为其下一个合作项目制定了计划;其股东期待增长。正如俗语所说,敌人的敌人就是朋友。

背后最大赢家曝光

Cerebras Systems 的 IPO在周四取得了巨大成功,为公司自身、创始人以及主要投资者创造了数十亿美元的收益。

此次交易的大赢家之一是主要股东Benchmark,该公司持有Cerebras 9.5%的股份。Benchmark的一位普通合伙人Eric Vishria自2016年Cerebras成立以来一直是其董事会成员,并曾共同领投了该公司2500万美元的A轮融资。 截至周四收盘,其持有的Cerebras股份价值55亿美元,劲挣该轮融资的另一主要投资者Foundation Capital持有价值48亿美元的股份。

但他告诉 TechCrunch,Benchmark 之所以能获得这数十亿美元的收入,是因为 Vishria 几乎是违背自己的意愿与这家初创公司会面。

“当时只有五位创始人,一份演示文稿,这是我们十年来首次硬件投资,”Vishria在接受TechCrunch采访时谈到第一次会面时说道。“我当时做风险投资人大概也就18个月。”(在成为风险投资人之前,Vishria于2013年将他联合创办的社交浏览器初创公司RockMelt以据报道6000万至7000万美元的价格出售给了雅虎。)

Benchmark 对投资公司的选择非常挑剔,很少支持硬件公司,以至于 Vishria 后悔当初把时间花在了 Cerebras 身上。

“我为什么要接这个会?”他不停地嘟囔着。维什里亚回忆说,有一次,他甚至给负责管理他日程的助理发信息,质问她:“你为什么让我接这个会?”

但到了第三张幻灯片,他的坏脾气就消失了,因为联合创始人兼首席执行官安德鲁·费尔德曼阐述了 Cerebras 的宏伟计划。

“第一张幻灯片是标题页。第二张是团队介绍。我当时就想,‘哇,这团队真棒。’第三张幻灯片的内容大概是‘GPU其实并不适合深度学习。它们只是碰巧比CPU好100倍而已。’他一说完,我就恍然大悟,”维什里亚回忆道。“我当时就想,‘我的天,当然了。为什么图形处理器会是人工智能的正确选择呢?’”

不过,这比谷歌著名的Transformer论文——2017年那篇奠定现代人工智能基础的研究论文——早了好几年,而Transformer最终催生了ChatGPT。当时,Cerebras正在推销一种新型的巨型芯片,专为人工智能训练而设计,而处理器行业尚未做好生产准备。

维什里亚对此很感兴趣,便与Benchmark的一些合伙人进行了讨论,但他们很快告诉他,他们对硬件的了解也不够。他们说,如果他想达成这笔交易,就必须请来一位上世纪90年代Benchmark的创始成员,那位成员才真正了解硬件。

维什里亚并未气馁,而是安排了一次会议,让费尔德曼向创始合伙人布鲁斯·邓利维进行推介,邓利维就芯片封装、冷却等问题对这位创始人进行了盘问。

“那次会议对我来说就像狗在看电视一样,”维什里亚开玩笑说,因为他几乎什么都没听懂。在听完提案后,邓利维警告说,塞雷布拉斯的尝试难度很大。其他人也尝试过,但都失败了。但他认为这支团队有机会。然而,他也担心这种芯片没有市场。

尽管维什里亚并不完全了解这项技术,但他坚信,如果Cerebras“能够让人工智能运行得更快”,就一定有市场,而且这个团队有能力取得成功。他们之前曾将一家名为SeaMicro的初创公司出售给了AMD。

Cerebras 首席执行官 Andrew Feldman 告诉 TechCrunch:“之前成功退出过一次公司,好处在于可以消除风险投资家的一些疑虑。我们不是凭空冒出来的,我们是一支经验丰富的团队。”

接下来的 8.5 年里,Cerebras 经历了无数次的挣扎,才最终打造出自己的产品。

费尔德曼和他的 Cerebras 联合创始人兼首席技术官肖恩·利不得不发明新的冷却方法,以防止如此大的芯片在通电时烧毁。他们还必须发明一种机器,能够同时在晶圆上钻 40 个螺丝孔而不会使晶圆破裂。诸如此类。

基准投资者反复心想:“我们到底在做什么?”

此外,硬件成本高昂。该公司从众多投资者那里筹集到5亿美元资金时,其芯片仍在研发中。在2022年的风险投资熊市中,该公司不得不再次融资。

“当时公司还没有取得太大进展,所以,是的,那段时间真的非常艰难,”维什里亚回忆道。

但大约18个月前,一切都发生了改变。Cerebras公司专为训练而设计的芯片,由全球最大的芯片代工制造商台积电成功生产,结果发现它们在推理方面表现更佳——无需事先训练人工智能模型,即可直接运行模型生成响应。就在人们意识到这一点的同时,人工智能领域对这种计算能力的需求也变得异常旺盛。Cerebras公司拥有庞大的客户群和可观的收入。

Cerebras没有选择再次进行私募融资,而是试图在2024年上市,结果却因其唯一主要客户——总部位于阿布扎比的云服务提供商G42的大笔投资而引发国家安全担忧,最终陷入美国政府的审查之中。此外,公众投资者也对其对G42的依赖以及巨额亏损感到担忧。

这次延迟反而因祸得福。如今,OpenAI 和 AWS 也成为了 Cerebras 的大客户。去年,Cerebras 的收入翻了一番,并实现了盈利。

Vishria 对 Cerebras 团队的“坚持不懈、独创性和适应能力”给予了高度评价。

但对于投资者而言,这也是一项值得称道的成就,因为他们在公司通常的投资领域之外,找到了一个极具潜力的投资标的。Benchmark持有17,602,983股,按IPO开盘价185美元计算,价值33亿美元;如果首日交易价格维持在300美元以上,则价值将超过53亿美元。该公司必须等到六个月的禁售期结束后才能出售股票——这是一项标准限制,旨在防止公司内部人士在公司上市后立即出售股票。

据多方披露信息显示,该公司在早期融资轮中以约1800万美元的价格收购了约80%的股份,Vishria也向TechCrunch证实了这一点。Cerebras在其S-1文件中披露,该公司在后续融资轮中以更高的价格收购了剩余股份,总成本约为2.5亿美元。

总而言之,这家历史悠久的风险投资公司可能花费了 2.7 亿美元获得了这部分股份,而这部分股份的价值可能高达数十亿美元甚至更多,具体取决于股价的走势。

风投公司的员工在投资获得丰厚回报时会获得奖金——那么,对于维什里亚的助理,就是那个他曾因为批准第一次会面而大发雷霆的人呢?他笑着说:“我认为她会做得很好,非常好。”

(来源:内容来自半导体行业观察综合)

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4406内容,欢迎关注。

加星标⭐️第一时间看推送

求推荐