打开网易新闻 查看精彩图片

市值仅次于微软、苹果、沙特阿美。

作者|刘杨楠

编辑|赵健

昨夜,英伟达市值一夜大涨 16.4% 达到 1.96 万亿美元,创下历史新高,并一举超越谷歌和亚马逊跻身全球第四,仅次于微软、苹果、沙特阿美。

英伟达单日市值增加 2770 亿美元,约等于 1.5 个英特尔,这也是美股历史上个股最大单日市值增长。

昨天英伟达刚刚公布了截至今年 1 月 28 日的 2024 财年第四季度财报。在财报公布前一天,英伟达股价下跌 4.35%,出现今年年内最大单日跌幅;财报公布当天,股价再跌 2.85%。

但英伟达近乎满分的答卷一夜之间填满了投资者的信心。该季度英伟达营收为 221 亿美元,同比增长 265%,环比增长 22%。市场预期为 204.1 亿美元;利润方面,净利润为 123 亿美元,同比增长了 769%,按美国通用会计准则下,本季度毛利率达 76%,市场预期 75%。

财报电话会上,英伟达首席执行官黄仁勋称,对 AI 所依赖的计算能力的需求仍然是极其巨大的,“全球范围内,企业、行业和各国的需求都在激增。”

英伟达的增长势头为何如此强劲?

1.收入利润大涨,数据中心狂飙

1.收入利润大涨,数据中心狂飙

英伟达有数据中心、游戏、专业可视化、汽车四大业务,先看一下具体的业绩表现。

打开网易新闻 查看精彩图片

数据中心

数据中心业务已经成为英伟达的顶梁柱。

财报显示,第四季度营收达到创纪录的 184 亿美元,环比增长 27%,同比增长 409%。全年收入增长 217%,达到创纪录的 475 亿美元。

财报电话会上,英伟达高管解释道,第四季度数据中心的增长是由跨行业、案例和地区的生成方式人工智慧和语言模型的训练和推理所推动的。其中,约 40% 来自人工智能推理。

第四季度,大型供应商占英伟达数据中心收入的一半以上,支持内部工作负载和外部公有云客户。

其中,消费互联网公司是英伟达最大的客户类别之一。从搜索到电子商务、社交媒体、新闻和视频服务以及娱乐的公司都在使用人工智能优化产品体验,甚至直接影响营收。Meta便在最新季度财报中表示,更准确的预测和广告商业绩的改善有助于其收入大幅增长。

22日早上,英伟达还宣布与 Google 合作优化其最先进的新 Gemma 语言模型,以加速其在云端、数据中心和 PC 中 NVIDIA GPU 上的推理。

针对中国地区,在美国政府 10 月份实施出口管制法规后,英伟达数据中心收入大幅下降。第四季度,中国数据中心收入占数据中心收入的中个位数百分比,并预计第一季度将保持在类似的范围内。

同时,英伟达透露已经开始向中国市场运送不需要许可证的替代品。

游戏

同为英伟达发家业务,相比于数据中心的迅猛涨势,游戏业务的表现有些中规中矩。

第四季度,游戏业务营收为 29 亿美元,环比持平,同比增长 56%。全年收入增长 15%,达到 104 亿美元。

最近一次闪光时刻是在 CES 上,英伟达发布了 GeForce RTX 40 Super 系列 GPU 系列,起价 599 美元,支持最新的 NVIDIA RTX™ 技术,包括 DLSS 3.5 光线重建和 NVIDIA Reflex。

此外,AI PC是本届 CES 上的一枝独秀,英伟达自然也没有缺位。英伟达宣布为其超过 1 亿台 RTX AI PC 的安装基础提供生成式 AI 功能,包括用于加速大型语言模型推理的Tensor-RT™ LLM ,以及让用户使用自己的内容个性化聊天机器人的技术演示Chat with RTX 。

英伟达还推出了NVIDIA Avatar Cloud Engine 的微服务,允许游戏和应用程序开发人员将最先进的生成式 AI 模型集成到不可玩的角色中。

专业可视化

第四季度,专业可视化业务营收为 4.63 亿美元,环比增长 11%,同比增长 105%。全年收入增长 1%,达到 16 亿美元。

财报电话会显示,本季度的连续增长是由 RTX Ada 架构 GPU 的丰富组合持续增长所推动的。企业正在更新其工作站,以支持与生成型人工智能相关的工作负载,例如数据准备、LLM 微调和检索增强生成。

这些推动需求的关键垂直行业包括制造业、汽车和机器人技术。汽车行业也是 NVIDIA Omniverse 的早期采用者,因为该行业寻求将工厂和汽车从设计到建造、模拟、操作和体验的工作流程数字化。在 CES 上,英伟达宣布 Brickland、WPP 和 ZeroLight 等创意合作伙伴和开发商正在构建 Omniverse 支持的汽车配置器。

汽车

第四季度,汽车业务营收为2.81亿美元,环比增长8%,同比下降4%。全年收入增长 21% 至 11 亿美元。

汽车业务是黄仁勋继游戏、数据中心之后被寄予厚望的第三大核心业务。但从今年的表现来看,似乎不尽如人意。

财报透露,其后续产品 NVIDIA DRIVE Thor 通常专为视觉Transformer设计,可提供更多 AI 性能,并将广泛的智能功能集成到单个 AI 计算平台中,包括自动驾驶和停车、驾驶员和乘客监控以及 AI 驾驶舱功能,并将明年上市。

同时,本季度有多家汽车客户发布公告,理想汽车、长城汽车、吉利旗下高端电动汽车子公司 ZEEKR 以及小米电动汽车均发布了基于 NVIDIA 的新车。

云服务收入

此外,「甲子光年」发现,英伟达新布局的云业务也有很大起色。

财报显示,软件和服务产品也取得了巨大进展,第四季度的年化收入达到了 10 亿美元。

英伟达也宣布 NVIDIA DGX Cloud 将扩大其合作伙伴名单,将亚马逊 AWS 纳入其中,加入 Microsoft Azure、Google Cloud 和 Oracle Cloud 的行列。DGX Cloud 用于 NVIDIA 自己的 AI 研发和自定义模型开发以及 NVIDIA 开发人员。它将 CUDA 生态系统带给 NVIDIA 云服务商合作伙伴。

2.黄仁勋说了什么?

问:为什么数据中心业务暴涨?

黄仁勋:我们正处于两大全行业转型的开始阶段。

第一个是从通用计算到加速计算的转变。通用计算正开始失去动力。您可以从云服务商的扩展和许多数据中心(包括我们自己的通用计算中心)中看出,折旧时间从 4 年延长到 6 年。当您无法像以前那样从根本上显著提高其吞吐量时,就没有理由更新更多 GPU。所以你必须加速一切。这是 NVIDIA 一段时间以来一直在开拓的领域。通过加速计算,您可以显著提高能源效率,可以将数据处理成本大幅降低 20 倍,这是一个巨大的数字。

当然还有速度。这种速度令人难以置信,以至于我们实现了第二次全行业转型——生成式人工智能。请记住,生成式人工智能是一种新的应用,它正在启用一种新的软件开发方式,新类型的软件正在被创建,这是一种新的计算方式。你无法在传统的通用计算上进行生成式人工智能。你必须加速它。

第三,它正在催生一个全新的行业。我们现在有一个关于人工智能生成的新型数据中心,一个人工智能生成工厂,它需要原材料,也就是数据。它用 NVIDIA 构建的这些 AI 超级计算机对其进行改造,并将它们变成极其有价值的 Token。这些 Token是 人们在 ChatGPT 或 Midjourney 上体验到的,或者如今的搜索也因此得到了增强。现在,您所有的推荐系统都受到了随之而来的超个性化的增强。所有这些令人难以置信的数字生物学初创企业都在生产蛋白质和化学品,这样的例子不胜枚举。

我们业务的推理部分增长巨大,估计约为 40%。训练量在持续,因为这些模型变得越来越大,推理量也在增加。但我们也在向新行业多元化发展。大型云服务商仍在继续建设。还有一个全新的类别,他们是专注于 NVIDIA AI 基础设施、GPU 的云服务商。

您会看到企业软件平台部署人工智能。ServiceNow 就是一个非常非常好的例子。你可以看到 Adobe,SAP 和其他公司。您会看到消费者互联网服务正在通过生成式人工智能增强过去的所有服务,因此他们可以创建更多超个性化的内容。

我们正在谈论工业生成人工智能。现在我们的行业代表了数十亿美元的业务:汽车、健康、金融服务,总的来说,我们的垂直行业现在是数十亿美元的业务。

当然,还有主权人工智能(sovereign AI)。每个地区的语言、知识、历史、文化都不同,他们拥有并希望使用自己的数据,训练它以创建自己的数字智能,并自己提供这些服务。主权 AI 基础设施正在日本、加拿大、法国等许多其他地区建设。所以我的预期是,在美国、在西方所经历的,肯定会在全世界复制。

去年,我们看到生成性AI真正成为一个全新的应用空间,一种全新的计算方式,一个全新的行业正在形成,这正在推动我们的增长。

问:40%的收入来自人工智能推理?如何衡量的?

黄仁勋:这个数字可能被低估了。一年前,推荐系统——地球上最大的软件引擎——都是基于 CPU 的。但最近向深度学习和生成式人工智能的迁移确实让这些推荐系统现在直接进入了 GPU 加速的道路,现在推荐系统的每一个步骤都用到了 GPU。

世界上几乎每一家大公司都必须运行这些大型推荐系统。每当您使用 ChatGPT 时,都会对其进行推理。每当你听说 Midjourney 以及他们为消费者生成的东西的数量时,当你看到我们与 Getty 和 Adobe 的 Firefly 所做的工作时,这些都是生成模型。一年前,这些案例都不存在。这样的例子还在继续。

问:下一代的产品供应会收到限制吗?

黄仁勋:总体而言,我们的供应正在改善。从晶圆、封装、内存、所有电源调节器到收发器、网络和电缆,以及你所能想到的我们发货的组件列表。人们认为 NVIDIA GPU 就像一个芯片,但NVIDIA Hopper GPU有 35000 个部件。它重 70 磅。我们构建的这些东西真的很复杂。人们称它为AI超级计算机是有充分理由的。如果你曾经看过数据中心的背面,那些系统,布线系统令人难以置信。这是世界上见过的最密集、最复杂的网络布线系统。

然而,每当我们有新产品时,它从 0 增长到一个非常大的数字,你不能一夜之间做到这一点。一切都是逐步增长的。现在我们正在增加 H200 的产量,我们无法在短期内合理地跟上需求。

我们正在增加 Spectrum-X 的产量,这是我们全新的产品,进入以太网领域。InfiniBand 是 AI 专用系统的标配。以太网在 Spectrum-X 之前,并不是一个很好的扩展系统。但是有了 Spectrum-X,我们在以太网的基础上增加了新的功能,比如自适应路由、拥塞控制、噪声隔离或流量隔离,以便我们能够为 AI 优化以太网。所以 InfiniBand 将是我们 AI 专用基础设施,Spectrum-X 将是我们 AI 优化的网络。

所以,对于所有新产品,需求总是大于供应。这正是新产品的本质,我们尽可能快地工作以赶上需求。总的来说,我们的供应正在非常好地增加。

问:在需求远远超过供应的时候,你们如何公平地分配产能?

黄仁勋:首先,我们的云服务提供商对我们的产品路线图和过渡有着非常清晰的了解。与云服务商之间的这种透明度让他们有信心知道应该在何时何地投放哪些产品。因此,他们能够根据我们的能力了解到最佳时机,并且知道数量和分配情况。我们尽力做到公平分配,并避免不必要的分配。

当数据中心还没有准备好时,为什么要分配资源呢?没有什么比让任何东西闲置更困难的了。在终端市场方面,我们有一个与 OEM、ODM、云服务商以及非常重要的终端市场共同构成的优秀生态系统。

NVIDIA 真正独特的地方在于,我们为我们的客户、合作伙伴、云服务商和 OEM 带来客户。所有这些初创公司——大公司、医疗保健、金融服务、汽车等行业都在 NVIDIA 的平台上工作。我们直接支持他们。而且,我们经常可以通过向云服务商分配资源的同时,将客户带给云服务商来实现双赢。所以这个生态系统是充满活力的。但在其核心,我们希望公平分配,避免浪费,并寻找机会连接合作伙伴和最终用户。

问:英伟达的客户如何看待他们今天正在进行的 NVIDIA 投资的长期可用性?今天的训练集群会不会变成明天的推理集群?

黄仁勋:这真的是非常酷的部分。如果您看看我们之所以能够如此大幅度提升性能的原因,那是因为我们的平台有两个特点。一是它是加速的,二是它是可编程的。NVIDIA 是唯一一个从最开始,字面意义上的最开始,当 CNNs 和 Alex Krizhevsky、Ilya Sutskever 以及 Geoff Hinton 首次揭示 AlexNet 开始,一直到 RNNs、LSTMs、每种 RL、深度 RL、变换器、每种视觉变换器、多模态变换器,以及现在的时间序列内容。每一种AI的变体,我们都支持它,为我们的堆栈优化它,并将其实现在我们的安装基础中。

这真的是非常了不起的部分。一方面,我们可以发明新的架构和技术,比如我们的张量核心变换器引擎,改进新的数值格式和处理结构,就像我们在不同代的张量核心中所做的那样,同时支持现有的安装基础。因此,我们把所有新的软件算法发明,所有的发明,新的行业模型发明,它们都在我们的安装基础上运行。

另一方面,每当我们看到一些革命性的东西,比如 Transformer,我们可以创造一些全新的东西,比如 Hopper 变换器引擎,并将其实现在未来的产品中。因此,我们同时具备将软件带给现有安装基础并不断改进的能力。所以,随着时间的推移,我们客户的安装基础会因为我们的新软件而变得更加丰富。

另一方面,对于新技术,创造革命性的能力。不要惊讶,如果我们在未来的一代产品中突然实现了大型语言模型的惊人突破。这些突破,其中一些将在软件中实现,因为它们运行 CUDA,并将提供给现有的安装基础。因此,一方面我们带领所有人前进,另一方面我们取得了巨大的突破。

问:中国市场业务占数据中心的个位数。未来会继续做中国市场吗?

黄仁勋:记住,核心问题是,美国政府既希望限制 NVIDIA 加速计算和AI的最新能力进入中国市场,又希望看到我们在中国市场尽可能成功。当新的限制出台时,我们不得不暂停,以便我们理解这些限制是什么,以一种无法被任何软件黑客攻击的方式重新配置我们的产品。这花了我们一些时间。所以我们重新设定了对中国的产品供应,现在我们正在向中国市场的客户进行样品测试。

我们将尽最大努力在中国市场竞争并取得成功,同时遵守限制的规格。上个季度,我们的业务显著下降,因为我们在市场上暂停了。我们停止了在市场上的发货。我们预计这个季度情况会差不多。但在此之后,希望我们能够去竞争我们的业务并尽最大努力,我们会看看结果如何。

问:英伟达的软件业务收入超过 10 亿美元,具体构成是怎样的?

黄仁勋:让我退一步,解释一下为什么 NVIDIA 在软件领域将会非常成功的根本原因。

首先,加速计算在云中真正得到了发展。在云中,云服务提供商拥有非常庞大的工程团队,我们与他们合作的方式使他们能够运营和管理自己的业务。每当出现任何问题时,我们都有大型团队分配给他们,他们的工程团队直接与我们的工程团队合作,我们增强、修复、维护、打补丁加速计算所涉及的复杂软件堆栈。

加速计算与通用计算非常不同。你不是从一个像 C++这样的程序开始。你编译它,然后所有的东西都在你的 CPU 上运行。从数据处理、SQL 与结构化数据,到所有图像、文本和 PDF(这是非结构化的),再到经典机器学习、计算机视觉、语音、大型语言模型、推荐系统,所有这些都需要不同的软件堆栈。这就是为什么 NVIDIA 有数百个库。

如果你没有软件,你就不能打开新市场。如果你没有软件,你就不能打开并启用新应用。软件对于加速计算是根本必要的。这是加速计算与通用计算之间的根本区别,大多数人花了很长时间才理解这一点。现在人们明白软件确实是关键。

我们与云服务提供商的合作方式真的很简单。我们有大型团队与他们的大型团队合作。然而,现在生成性AI正在使每个企业和每个企业软件公司都能够拥抱加速计算,当现在拥抱加速计算变得至关重要,因为仅仅通过通用计算已经不可能、也不再可能以任何方式维持提高吞吐量时,所有这些企业软件公司和企业都没有大型工程团队能够维护和优化他们的软件堆栈,使其能够在全世界的云、私有云和本地运行。

所以我们将为他们的所有软件堆栈做管理、优化、打补丁、调整、安装基础优化。我们将它们容器化到我们称为 NVIDIA AI Enterprise 的堆栈中。我们将其推向市场的方式是,将 NVIDIA AI Enterprise 视为一个运行时,就像操作系统一样。它是一个人工智能的操作系统。

我们每个GPU每年收费4500美元。我猜测世界上的每个企业,每个在所有云、私有云和本地部署软件的企业软件公司,都会在 NVIDIA AI Enterprise 上运行,尤其是对于我们的 GPU。所以这将很可能随着时间的推移成为一个非常重大的业务。我们已经有了一个良好的开端。而且科莱特提到,它已经有10亿美元的年营业额,我们才刚刚开始。

(封面图来源:英伟达)