据路透社报道,OpenAI 正在联合博通、台积电开发其首款自主设计的推理芯片,用于支持其人工智能系统。除此之外,OpenAI 还计划在采用英伟达芯片的基础上,增加采用 AMD 芯片,以满足其激增的基础设施需求。

此前,OpenAI 已经研究了一系列方案旨在实现芯片供应多样化并降低成本,曾考虑过在公司内部设计制造,也计划建立一个“晶圆代工厂网络”。

然而,由于建立晶圆代工厂网络需要太多的成本和时间,OpenAI 暂时放弃了这一“雄心勃勃”的计划,转而专注于内部芯片设计工作。

打开网易新闻 查看精彩图片

(来源:路透社)

受该消息影响,博通股价上涨,周二收盘涨幅超过 4.5%;AMD 股价也延续早盘涨幅,收盘上涨 3.7%。

OpenAI 针对 AI 推理打造自研芯片

消息人士称,OpenAI 正在与博通和台积电合作开发人工智能推理芯片,用于在经过训练后运行人工智能模型,以满足其不断增长的基础设施需求。

在研究了一系列芯片多元化供应和降低成本的方案之后,OpenAI 做出了这一决定。具体而言,一方面,OpenAI 开发自研人工智能推理芯片(放弃曾经设想的晶圆代工网络计划);另一方面,除了英伟达之外,OpenAI 还增加采用 AMD 的人工智能芯片,以实现芯片的多元化供应。

消息人士称,OpenAI 计划开发定制芯片并用于人工智能推理已有一年左右的时间,为了打造其首款专注于推理的人工智能芯片,数月以来 OpenAI 一直与博通合作,但目前讨论仍处于早期阶段。

据消息人士透露,OpenAI 目前已组建了一支约 20 人的芯片团队,由 Richard Ho 和 Thomas Norrie 领导,两位曾是在谷歌领导开发张量处理单元(TPU)的高级工程师;同时,OpenAI 已通过博通与台积电确定了制造能力,计划在 2026 年推出第一款 AI 芯片(但时间表仍可能会变化);此外,OpenAI 也在探索其他并行方案,不排除后续会引入更多合作伙伴。

选择与合作伙伴联合开发定制芯片对于 OpenAI 来说似乎是一条更快、更容易实现的途径。通过与博通和台积电合作,OpenAI 可以利用成熟的芯片制造能力,比完全内部开发更快地发展。不过,OpenAI 也并未完全放弃未来可能会继续构建“晶圆代工厂网络”的宏伟计划。

芯片制造不外乎设计和生产。纵观全球,在生产方面,台积电的制造能力毋庸置疑,而 OpenAI 之所以选择博通,很大程度上是考量到其在定制芯片领域的经验。据了解,博通与谷歌、Meta 等科技巨头都有合作。曾有分析指出,在当前人工智能的浪潮下,博通的营收和股价涨幅明显,是继英伟达之后的另一个赢家。

消息人士称,在探索自研芯片的过程中,OpenAI 对从英伟达“挖人”持谨慎态度,因为它希望与英伟达保持良好的合作关系,尤其是在眼下 Blackwell 芯片即将发货之际。

路透社指出,类似于微软、谷歌、亚马逊和 Meta 等行业巨头,OpenAI 利用行业合作伙伴关系以及内部和外部方法的组合来确保芯片供应并管理成本。同时,作为全球最大的 AI 芯片买家之一,OpenAI 在开发自研芯片的同时还从多家芯片制造商处采购,这个决定可能会对科技行业产生更广泛的影响。

未来对推理芯片的需求可能会超过训练

在人工智能领域,芯片是不可或缺的核心“引擎”。就目前而言,市面上超 80% 的 AI 芯片被英伟达垄断,其芯片几乎成了人工智能训练的“标配”。比如,马斯克的 xAI 公司寻求将其 Colossus 数据中心的数量增加一倍,达到 20 万颗英伟达 H100 芯片。

面对日益增加的算力需求,以及英伟达 AI 芯片的供不应求和较高的成本,其客户微软、Meta 等也纷纷开始探索其他替代方案。

相较于采购第三方芯片,开发自研芯片是提高性能、优化功耗、降低成本的有效途径之一,企业也可根据自身特定需求打造差异化的产品。比如,苹果开发出 M 系列芯片,进而脱离了英特尔的芯片供应。很大程度上,自研芯片将使 OpenAI 能够定制其基础设施能够同时满足技术需求和预算限制。

然而冰冻三尺非一日之寒,自研芯片面临的挑战十分巨大,设计和制造芯片不但需要巨额资金和技术投入,并且芯片研发往往需要数年的设计及测试周期。

(来源:公司官网)
打开网易新闻 查看精彩图片
(来源:公司官网)

更为关键的是,OpenAI 进军内部自研芯片是主要科技公司和人工智能公司更广泛趋势的一部分,即开发专用硬件,比通用 GPU 更有效地满足人工智能工作负载的独特需求。

虽然现阶段业界对训练芯片的需求更大,但分析师预测,随着越来越多人工智能应用的部署,科技公司使用人工智能模型来承担更复杂的任务,对支持推理的芯片的需求会持续增长,预计未来对推理芯片的需求可能会超过训练芯片。

在 AI 领域,训练和推理是两个不同的过程,所需的硬件也有所不同。其中,训练是让机器学习模型通过大量的数据进行学习的过程,由于训练阶段的数据量庞大且计算密集度高,所以对计算资源的需求非常高。

推理是使用已经训练好的模型来进行预测或决策的过程。与训练相比,推理通常不需要频繁地调整参数,更多的是执行已知的计算操作,然而推理往往需要实时响应,尤其是在自动驾驶、语音识别等领域,并且 AI 推理设备通常部署在端侧(比如手机、电脑等),因此推理芯片的微型化和能效比显得非常重要。

在端侧,IDC 预计 2025 年全球物联网设备总数或将超过 400 亿台,产生数据量多达 80 ZB,在智慧城市、智能家居、自动驾驶等诸多场景中,将有超一半的数据依赖端侧处理。

此次,以开发云端大模型著称的 OpenAI 布局 AI 推理芯片,似乎暗示了该公司对未来计算架构的长远规划,AI 推理芯片的开发或许可被视为是为了支持未来更加广泛的 AI 应用,比如端侧大模型的部署。

事实上,业界普遍认为,端侧大模型或将成为未来趋势。对比云端大模型,端侧大模型更为轻量化,通过在设备上直接进行推理,无需联网,减少延迟,大幅提高实时响应,同时也减少了隐私泄露的风险,兼具实时性、保密性和经济性。

参考资料:

1.https://www.reuters.com/technology/artificial-intelligence/openai-builds-first-chip-with-broadcom-tsmc-scales-back-foundry-ambition-2024-10-29/

2.https://www.bloomberg.com/news/articles/2024-10-29/openai-broadcom-working-to-develop-ai-chip-focused-on-inference

3.https://siliconangle.com/2024/10/29/openai-reportedly-working-broadcom-tsmc-develop-custom-ai-inference-chip/