未经许可不得转载,保留原文出处链接和公众号按钮

文:天空之城·城主

NVIDIA已经公布了2025年第一季度的收益结果,轻松超越了收益和收入预期。财报之后, #NVDA#这当之无愧的AI时代第一股历史性突破1000美元。

B站传送门:【精校】NVIDIA英伟达 25财年第一季度财报电话会及问答完整版【中英】-哔哩哔哩】 https://b23.tv/iwuZPho

2025年第一季度财报业绩全面优于预期

财报显示,NVIDIA第一季度每股收益为6.12美元,总收入达到260亿美元,超出市场预期14亿美元。展望未来,NVIDIA预测2025年第二季度的收入将达到280亿美元,高于分析师的预期。此外,NVIDIA还宣布将进行10比1的股票拆分,并将季度现金股息提高150%。公司预计2025财年的毛利率将维持在70%左右。

数据中心业务强劲增长,人工智能和云服务表现突出

NVIDIA在第一季度的亮眼表现主要得益于数据中心业务的强劲增长。数据中心收入同比增长23%,达到226亿美元,推动总收入较去年同期增长262%。尽管游戏业务收入下降8%,但NVIDIA在人工智能和云服务领域的出色表现弥补了这一损失。NVIDIA的客户包括苹果、微软、亚马逊和Facebook等大型科技公司,这些公司对NVIDIA的Hopper GPU计算平台需求强劲。NVIDIA的人工智能基础设施已在云服务提供商中得到大规模部署和扩展,其软件堆栈和生态系统使客户能够轻松在公共云中启动和运行GPU实例。

NVIDIA助力特斯拉等企业客户,推动人工智能发展

NVIDIA与特斯拉等企业客户保持着密切合作,支持其扩展人工智能训练集群,并为最新的自动驾驶软件FSD版本12提供基础设施。NVIDIA预计,汽车行业将成为今年数据中心内最大的企业垂直行业。此外,消费者互联网公司也是NVIDIA的一个强劲增长点,Meta最新推出的大型语言模型Llama3就是在NVIDIA的GPU集群上进行训练的。

NVIDIA与全球客户合作,建设AI工厂

NVIDIA正与全球超过100家客户合作,建设规模从数百到数万个GPU不等的AI工厂。随着世界各国对自主AI的投资不断增加,NVIDIA预计数据中心收入将呈现多样化趋势。在日本、法国、瑞士、新加坡等国,NVIDIA正与当地的数字基础设施提供商合作,建设自主AI基础设施和超级计算机。NVIDIA提供全方位的计算到网络技术、全栈软件、AI专业知识以及丰富的合作伙伴和客户生态系统,推动主权AI和区域云提供商的发展。NVIDIA预计,主权AI收入今年可以达到数十亿美元。

针对中国市场推出新产品,应对出口管制挑战

面对中国市场的激烈竞争和出口管制的挑战,NVIDIA推出了专为中国设计的新产品,这些产品不需要出口管制许可证。尽管如此,NVIDIA预计其在中国的数据中心收入将大幅下降。

Hopper GPU架构推动计算收入增长,Grace Hopper超级芯片批量出货

NVIDIA的Hopper GPU架构推动了大部分计算收入的增长,Hopper的需求持续增长。NVIDIA已经开始对H200进行采样,预计将在第二季度进行发货。H200的推理性能是H100的两倍,这为生产部署带来了巨大的价值。NVIDIA正在通过持续的软件优化提高其AI基础设施的性能,尽管H100的供应有所改善,但H200的供应仍然受到限制。NVIDIA正在努力将其系统和云合作伙伴推向全球,以便在今年晚些时候上市。同时,NVIDIA的Grace Hopper超级芯片已经开始批量出货,全球有9台新超级计算机正在使用Grace Hopper。

InfiniBand和SpectrumX推动网络业务增长

NVIDIA的InfiniBand推动了强劲的网络同比增长,预计网络将在第二季度恢复环比增长。NVIDIA在第一季度开始推出针对AI优化的全新SpectrumX以太网网络解决方案,预计SpectrumX将在一年内成为价值数十亿美元的产品线。

推出下一代AI工厂平台Blackwell,性能大幅提升

NVIDIA在GTC大会上推出了下一代AI工厂平台Blackwell,其训练速度比H100快4倍,推理速度比H100快30倍。Blackwell平台包括第五代NVLink和新的InfiniBand以及以太网交换机X800系列。此外,NVIDIA还推出了新的软件产品NVIDIA推理微服务(NIMS),它提供了由NVIDIA CUDA加速支持的安全且性能优化的容器。

游戏和专业可视化业务表现稳健,汽车业务增长强劲

NVIDIA的游戏业务收入为26.5亿美元,环比下降8%,同比增长18%。NVIDIA的GeForce RTX GPU的安装基数已超过1亿,非常适合游戏玩家、创作者和AI爱好者。专业可视化(ProViz)业务收入为4.27亿美元,环比下降8%,同比增长45%。NVIDIA在GTC上宣布了新的Omniverse Cloud API,使开发人员能够将Omniverse工业数字孪生和模拟技术集成到他们的应用程序中。许多公司正在使用Omniverse数字化工作流程,如制造合作伙伴纬创和电动汽车制造商比亚迪。

在汽车领域,NVIDIA的收入达到了3.29亿美元,环比增长了17%,同比增长了11%。这主要得益于全球OEM客户对AI座舱解决方案的需求增加,以及自动驾驶平台的强大实力。NVIDIA成功地支持了小米推出其首款电动汽车SU7轿车,该款轿车是基于NVIDIA DRIVE Orin打造的。NVIDIA还宣布了DRIVE Thor的多项新设计,它是Orin的继任者,采用新的NVIDIA Blackwell架构。多家领先的电动汽车制造商都采用了这款产品,其中包括比亚迪、小鹏、广汽的IonHyper和Neuralink。DRIVE Thor计划于明年开始量产。

毛利率扩大,运营费用增加,回报股东78亿美元

由于库存费用的降低,NVIDIA的Gap毛利率环比扩大至78.4%,非Gap毛利率环比扩大至78.9%。环比来看,Gap运营费用增长了10%,非Gap运营费用增长了13%,这主要反映了与薪酬相关的成本增加以及计算和基础设施投资的增加。在第一季度,NVIDIA以股票回购和现金分红的形式向股东返还了78亿美元。

宣布股票拆分和增加股息,第二季度展望乐观

NVIDIA宣布对公司股票进行1拆10的拆分,6月10日将是拆分调整后的第一个交易日。NVIDIA还将股息提高了150%。展望第二季度,NVIDIA预计总收入为280亿美元,上下浮动2%。NVIDIA预计所有市场平台都将实现连续增长。预计Gap和非Gap毛利率分别为74.8%和75.5%,上下浮动50个基点。NVIDIA预计全年毛利率将在75%左右。预计Gap和非Gap运营费用分别约为40亿美元和28亿美元。预计全年运营支出将增长40%左右。预计Gap和非Gap其他收入和支出约为3亿美元,不包括非关联投资的收益和损失。预计Gap和非Gap税率为17%,上下浮动1%,不包括任何单项项目。

黄教主问答前总结发言 - NVIDIA正在引领新工业革命:

NVIDIA正处于下一场工业革命的开端。各个企业和国家正在与NVIDIA合作,将价值数万亿美元的传统数据中心安装基数转向加速计算,并建设新型数据中心——人工智能工厂,以生产新的商品——人工智能。人工智能将为几乎所有行业带来显著的生产力提升,帮助企业提高成本和能源效率,同时扩大收入机会。

云服务提供商是第一批推动人工智能发展的公司。借助NVIDIA,云服务提供商加速了工作负载,以节省资金和电力。NVIDIA Hopper生成的Token为其人工智能服务带来了收入。NVIDIA Cloud实例吸引了来自NVIDIA丰富的开发者生态系统的租赁客户。Hopper平台上对生成人工智能训练和推理的强劲且不断增长的需求推动了NVIDIA数据中心的增长。

生成人工智能正在推动从基础开始的全栈计算平台转变,这将改变每一次计算机交互。从今天的信息检索模型,NVIDIA正在转向计算的答案和技能生成模型。人工智能将理解上下文和NVIDIA的意图,具有知识、推理、计划和执行任务。NVIDIA正在从根本上改变计算的工作方式和计算机的功能。从通用CPU到GPU加速计算,从指令驱动软件到意图理解模型。从检索信息到执行技能。在工业层面,从生产软件到生成Token,制造数字智能。

Blackwell平台已全面投入生产,并为万亿参数级生成人工智能奠定基础。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交换机、高速互连以及丰富的软件和合作伙伴生态系统相结合,让NVIDIA能够扩展并为人工智能工厂提供比前几代更丰富、更完整的解决方案。

SpectrumX为NVIDIA开辟了一个全新的市场,将大规模人工智能引入仅限以太网的数据中心。NVIDIA NIMS是NVIDIA的新软件产品,可提供企业级、优化的生成人工智能,可在任何地方的CUDA上运行。通过NVIDIA广泛的生态系统合作伙伴网络,从云端到本地数据中心再到RTX人工智能PC。

从Blackwell到SpectrumX,再到NIMS,NVIDIA已经做好准备,迎接下一波增长的到来。

=以下是本次财报的天空之城书面整理版=:

今天电话会议的内容在本次电话会议中,我们可能会根据当前预期做出前瞻性陈述。这些陈述受许多重大风险和不确定性的影响,我们的实际结果可能会大不相同。有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天的收益报告中的披露、我们最新的10-K和10-Q表以及我们可能向美国证券交易委员会提交的8-K表报告。我们所有的声明都是截至今天(2024年5月22日)根据我们目前掌握的信息做出的。除非法律要求,否则我们不承担更新任何此类声明的义务。

在本次电话会议中,我们将讨论非GAAP财务指标。您可以在我们的CFO评论中找到这些非GAAP财务指标与GAAP财务指标的对账,该评论已发布在我们网站上。接下来,我将重点介绍一些即将举行的活动。6月2日星期日,在台湾举办的Computex技术贸易展之前,Jensen将发表主题演讲,该演讲将在台北亲自举行,并进行现场直播。6月5日,我们将在旧金山的美国银行技术会议上发表演讲。在此,我将电话转给Collette(CFO)。

Collette:

谢谢。

第一季度的业绩再次创下了纪录。收入为260亿美元,环比增长18%,同比增长262%,远高于我们240亿美元的预期。从数据中心开始,数据中心收入创下了226亿美元的纪录,环比增长23%,同比增长427%,这得益于对NVIDIA Hopper GPU计算平台的持续强劲需求。与去年相比,计算收入增长了5倍多,网络收入增长了3倍多。所有类型的客户都推动了数据中心的强劲增长,其中企业和消费者互联网公司表现突出。大型云服务提供商正在持续推动强劲的增长,他们大规模部署并扩展了NVIDIA的人工智能基础设施,这占据了我们数据中心收入的大约45%。

在NVIDIA的CUDA平台上进行人工智能的训练和推理,正在显著加速云租赁收入的增长,为云服务提供商的投资带来了即时且强劲的回报。在NVIDIA的人工智能基础设施上,每投入1美元,云服务提供商就有机会在四年内获得5美元的GPU即时托管收入。

NVIDIA丰富的软件堆栈和生态系统,以及与云服务提供商的紧密集成,使得最终客户可以轻松地在公共云中启动和运行NVIDIA的GPU实例。对于云租赁客户来说,NVIDIA的GPU提供了最佳的训练时间模型、最低的训练成本模型和最低的推理成本大语言模型。对于公有云提供商来说,NVIDIA将客户带到他们的云端,推动了收入增长和基础设施投资的回报。

领先的大语言模型公司,如OpenAI、ADEPT、Anthropic、Character AI、Cohere、Databricks、DeepMind、Meta、Mistral、XAI等,都在云端构建NVIDIA的人工智能。在本季度,企业推动了数据中心的强劲环比增长。我们支持特斯拉将其训练人工智能集群扩展到了35,000个H100 GPU。他们对NVIDIA的人工智能基础设施的使用,为他们最新的基于视觉的自动驾驶软件FSD版本12的突破性性能铺平了道路。

视频Transformer在消耗更多计算资源的同时,显著提高了自动驾驶能力,并推动了整个汽车行业NVIDIA人工智能基础设施的显著增长。我们预计,汽车将成为我们今年数据中心内最大的企业垂直行业,为本地和云消费带来数十亿美元的收入机会。

消费者互联网公司也是一个强劲的增长垂直行业。本季度的一大亮点是Meta宣布推出其最新的大型语言模型Llama3,该模型在24,000个H100 GPU集群上进行训练。Llama3为Meta AI提供支持,Meta AI是一款可在Facebook、Instagram、WhatsApp和Messenger上使用的新型人工智能系统。Llama3已公开可用,并已在各行业掀起了人工智能开发浪潮。

随着生成式人工智能进入更多消费者互联网应用,我们预计将继续看到增长机会,因为推理会随着模型复杂性以及用户数量和每个用户的查询数量的增加而扩展,从而推动对人工智能计算的更多需求。在过去四个季度中,我们估计推理推动了我们数据中心收入的约40%。训练和推理的需求正在显著增长。大型集群,例如Meta和Tesla所构建的集群,是AI生产所必需的基础设施,我们将其称为AI工厂。这些下一代数据中心是先进的、全栈的、加速的计算平台,数据从这里输入,智能从这里输出。

在第一季度,我们与超过100家客户合作,建设了规模从数百到数万个GPU不等的AI工厂,其中一些甚至达到了10万个GPU。从地域角度来看,随着世界各国对自主AI的投资,数据中心收入呈现多样化趋势。

自主AI是指一个国家利用自己的基础设施、数据、劳动力和商业网络生产人工智能的能力。各国正在通过各种模式建设国内计算能力。一些国家正在与国有电信提供商或公用事业公司合作采购和运营自主AI云。其他一些国家正在赞助本地云合作伙伴,为公共和私营部门提供共享的AI计算平台。

例如,日本计划向KBDI、Sakura Internet和SoftBank等关键数字基础设施提供商投资超过7.4亿美元,以构建该国的自主AI基础设施。总部位于法国的Scaleway是Iliad Group的子公司,正在打造欧洲最强大的云原生AI超级计算机。在意大利,瑞士电信集团将建造该国第一台最强大的NVIDIA DTX超级计算机,以开发第一个以意大利语为母语的LLM课程。在新加坡,国家超级计算机中心正在使用NVIDIA Opera GPU进行升级,而新加坡电信正在东南亚各地建立NVIDIA加速AI工厂。

NVIDIA能够提供端到端计算到网络技术、全栈软件、AI专业知识以及丰富的合作伙伴和客户生态系统,使主权AI和区域云提供商能够快速启动其国家的AI雄心。从去年的零到现在,我们相信主权AI收入今年可以达到数十亿美元。

AI的重要性引起了每个国家的关注。我们推出了专为中国设计的新产品,这些产品不需要出口管制许可证。我们在中国的数据中心收入与10月份实施新的出口管制限制之前的水平相比大幅下降。我们预计中国市场未来仍将保持非常激烈的竞争。

从产品角度来看,绝大部分计算收入是由我们的Hopper GPU架构推动的。本季度对Hopper的需求持续增长。得益于CUDA算法创新,我们能够将H100上的LLM推理速度提高多达3倍,这可以转化为为Llama3等流行模型提供服务的成本降低3倍。我们于第一季度开始对H200进行采样,目前该产品已在生产阶段,预计将在第二季度进行发货。首个H200系统由Jensen交付给了Sam Altman和OpenAI团队,上周,该系统为他们的GPT40演示提供了强大的支持。

H200的推理性能几乎是H100的两倍,这为生产部署带来了巨大的价值。例如,使用具有7000亿个参数的Llama3,单个NVIDIA HGX H200服务器每秒可以提供24,000个Token,同时支持超过2,400名用户。这意味着,按照当前每个Token的价格,NVIDIA HGX H200服务器上每花费1美元,提供Llama3 Token的API提供商可以在四年内产生7美元的收入。

我们通过持续的软件优化,不断提高NVIDIA AI基础设施的性能,以服务于AI模型。尽管H100的供应有所改善,但H200的供应仍然受到限制。与此同时,Blackwell已全面投入生产。我们正在努力将我们的系统和云合作伙伴推向全球,以便在今年晚些时候上市。H200和Blackwell的需求远远超过供应,我们预计明年需求可能会超过供应。

Grace Hopper超级芯片正在批量出货。上周在国际超级计算大会上,我们宣布全球有9台新超级计算机正在使用Grace Hopper,今年交付的节能AI处理能力总计达200倍。其中包括瑞士国家超级计算中心的ALPS超级计算机、欧洲最快的AI超级计算机、英国布里斯托大学的Zombard AI和德国Julek超级计算中心的Jupyter。由于其高能效和性能,我们看到Grace与Hopper在超级计算领域的应用率达到了80%。我们还很自豪地看到,搭载Grace Hopper的超级计算机在全球最节能的超级计算机中分别占据第一、第二和第三的位置。

强劲的网络同比增长是由InfiniBand推动的。我们经历了适度的环比下滑,这主要是由于供应时机,需求远远超过我们能够发货的数量。我们预计网络将在第二季度恢复环比增长。

在第一季度,我们开始从头开始推出针对AI优化的全新SpectrumX以太网网络解决方案。它包括我们的Spectrum4交换机、Bluefield3 DPU和新软件技术,以克服以太网上AI的挑战,与传统以太网相比,为AI处理提供高1.6倍的网络性能。SpectrumX的销售额正在与众多客户共同增长,其中包括一个拥有100,000 GPU的庞大集群。SpectrumX为NVIDIA网络开启了一个全新的市场,使得仅依赖以太网的数据中心也能够容纳大规模的AI。我们预计,SpectrumX将在一年内成为价值数十亿美元的产品线。

在三月份的GTC大会上,我们推出了下一代AI工厂平台Blackwell。Blackwell GPU架构的训练速度比H100快4倍,推理速度比H100快30倍,并且支持在万亿参数的大型语言模型上实时生成AI。Blackwell是一个巨大的飞跃,其总体拥有成本(TCO)和能耗比Hopper低25倍。

Blackwell平台包括第五代NVLink(带有多GPU主干)和新的InfiniBand以及以太网交换机X800系列,这些都是专为万亿参数规模的AI设计的。Blackwell旨在为数据中心提供广泛的支持,从超大规模到企业级,从训练到推理,从x86到高性能CPU,从以太网到InfiniBand网络,从空气冷却到液体冷却。

Blackwell将在发布时用于100多个OEM和ODM系统,这个数量是Hoppers的两倍多,覆盖了全球所有主要的计算机制造商。这将支持在第一年的出货量中,各种客户类型、工作负载和数据中心环境能够快速广泛地采用。Blackwell上市时的客户包括亚马逊、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和XAI。

我们宣布推出一款新的软件产品,引入了NVIDIA推理微服务(NIMS)。NIMS在网络计算和推理软件(包括Triton推理服务器和TensorRT LLM)中提供由NVIDIA CUDA加速支持的安全且性能优化的容器,以及适用于广泛用例的行业标准API,包括用于文本、语音、成像、视觉、机器人、基因组学和数字生物学的大型语言模型。

它们使开发人员能够使用来自NVIDIA、AI21、ADEPT、Cohere、Steady Images和Shutterstock的领先模型,以及来自Google、PluginFace、Meta、Microsoft、Mistral AI、Snowflake和Stability AI的开放模型,快速构建和部署生成式AI应用程序。NIMS将作为我们NVIDIA AI企业软件平台的一部分提供,用于生产、在云端或本地部署。

现在,我们将话题转向游戏和AI PC。游戏业务的收入为26.5亿美元,环比下降8%,同比增长18%,这与我们对季节性下降的预期相符。GeForce RTX Super和GPU的市场接受度强劲,整个产品系列的终端需求和渠道库存保持健康。

自从我们开始AI之旅,我们就为GeForce RTX GPU配备了CUDA Tensor核心。目前,GeForce RTX GPU的安装基数已超过1亿,非常适合游戏玩家、创作者、AI爱好者,并为在PC上运行生成式AI应用程序提供无与伦比的性能。NVIDIA拥有在GeForce RTX PC上部署和运行快速高效的生成式AI推理的完整技术堆栈。

TensorRT LLM已经加速了Microsoft的PHY3 Mini模型和Google的Gemma 2B和7B模型,以及流行的AI框架,包括LangCheng和Llama Index。昨天,NVIDIA和Microsoft宣布了针对Windows的AI性能优化,以帮助在NVIDIA LLM上将LLM的运行速度提高3倍。这是GeForce RTX AI PC的一部分。

包括网易游戏、腾讯和育碧在内的顶级游戏开发商正在采用NVIDIA Avatar Character Engine来创建逼真的化身,以改变游戏玩家和非玩家角色之间的互动。

转向专业可视化(ProViz)业务,收入为4.27亿美元,环比下降8%,同比增长45%。我们相信生成式AI和全宇宙工业数字化将推动下一波专业可视化增长。

在GTC上,我们宣布了新的Omniverse Cloud API,使开发人员能够将Omniverse工业数字孪生和模拟技术集成到他们的应用程序中。一些全球最大的工业软件制造商正在采用这些API,包括达索系统、布兰德和西门子的Antus、Cadence、3DEXCITE。开发人员可以使用它们将工业数字孪生传输到空间计算设备(如Apple Vision Pro)。Omniverse Cloud API将于今年晚些时候在Microsoft Azure上推出。

许多公司正在使用Omniverse来数字化他们的工作流程。Omniverse驱动的数字孪生使我们的制造合作伙伴之一纬创将端到端生产周期缩短了50%,缺陷率降低了40%。全球最大的电动汽车制造商比亚迪正在采用Omniverse进行虚拟工厂规划和零售配置。在汽车领域,我们的收入达到了3.29亿美元,环比增长了17%,同比增长了11%。环比增长主要得益于全球OEM客户对AI座舱解决方案的需求增加,以及我们自动驾驶平台的强大实力。同比增长则主要源于自动驾驶的发展。

我们成功地支持了小米推出其首款电动汽车SU7轿车,该款轿车是基于我们的NVIDIA DRIVE Orin打造的,这是我们为软件定义的AV车牌开发的AI车载计算机。我们还宣布了NVIDIA DRIVE Thor的多项新设计,它是Orin的继任者,采用新的NVIDIA Blackwell架构。多家领先的电动汽车制造商都采用了这款产品,其中包括比亚迪、小鹏、广汽的IonHyper和Neuralink。DRIVE Thor计划于明年开始量产。

现在,让我们来看看损益表的其他部分。由于库存费用的降低,Gap毛利率环比扩大至78.4%,非Gap毛利率环比扩大至78.9%。如上季度所述,第四季度和第一季度均受益于有利的零部件成本。环比来看,Gap运营费用增长了10%,非Gap运营费用增长了13%,这主要反映了与薪酬相关的成本增加以及计算和基础设施投资的增加。在第一季度,我们以股票回购和现金分红的形式向股东返还了78亿美元。

今天,我们宣布对公司股票进行1拆10的拆分,6月10日将是拆分调整后的第一个交易日。我们还将股息提高了150%。

接下来,我将谈谈第二季度的前景。我们预计总收入为280亿美元,上下浮动2%。我们预计所有市场平台都将实现连续增长。预计缺口和非缺口毛利率分别为74.8%和75.5%,上下浮动50个基点,这与我们上个季度的讨论一致。我们预计全年毛利率将在75%左右。预计缺口和非缺口运营费用分别约为40亿美元和28亿美元。预计全年运营支出将增长40%左右。预计缺口和非缺口其他收入和支出约为3亿美元,不包括非关联投资的收益和损失。预计缺口和非缺口税率为17%,上下浮动1%,不包括任何单项项目。更多的财务细节包含在CFO评论和我们IR网站上提供的其他信息中。

现在,我想把时间交给Jensen,因为他有一些想要发表的评论。感谢您,Colette。当前,我们所处的行业正在经历一场重大的变革。在我们开始问答环节之前,我想先分享一些关于这场转型重要性的观点。

黄仁勋:

我们正处于下一场工业革命的开端。各个企业和国家正在与NVIDIA合作,将价值数万亿美元的传统数据中心安装基数转向加速计算,并建设新型数据中心——人工智能工厂,以生产新的商品——人工智能。人工智能将为几乎所有行业带来显著的生产力提升,帮助企业提高成本和能源效率,同时扩大收入机会。

云服务提供商(CSP)是第一批推动人工智能发展的公司。借助NVIDIA,CSP加速了工作负载,以节省资金和电力。NVIDIA Hopper生成的Token为其人工智能服务带来了收入。NVIDIA Cloud实例吸引了来自我们丰富的开发者生态系统的租赁客户。Hopper平台上对生成人工智能训练和推理的强劲且不断增长的需求推动了我们数据中心的增长。

随着模型学习多模态、理解文本、语音、图像、视频和3D并学习推理和计划,训练规模不断扩大。我们的推理工作负载正在以惊人的速度增长。有了生成人工智能,推理(现在涉及大规模快速生成Token)变得非常复杂。

生成人工智能正在推动从基础开始的全栈计算平台转变,这将改变每一次计算机交互。从今天的信息检索模型,我们正在转向计算的答案和技能生成模型。人工智能将理解上下文和我们的意图,具有知识、推理、计划和执行任务。我们正在从根本上改变计算的工作方式和计算机的功能。从通用CPU到GPU加速计算,从指令驱动软件到意图理解模型。从检索信息到执行技能。在工业层面,从生产软件到生成Token,制造数字智能。

Token生成将推动人工智能工厂的多年建设。除了云服务提供商之外,生成人工智能已经扩展到消费者互联网公司和企业、主权人工智能、汽车和医疗保健客户,创造多个数十亿美元的垂直市场。

Blackwell平台已全面投入生产,并为万亿参数级生成人工智能奠定基础。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交换机、高速互连以及丰富的软件和合作伙伴生态系统相结合,让我们能够扩展并为人工智能工厂提供比前几代更丰富、更完整的解决方案。

SpectrumX为我们开辟了一个全新的市场,将大规模人工智能引入仅限以太网的数据中心。NVIDIA NIMS是我们的新软件产品,可提供企业级、优化的生成人工智能,可在任何地方的CUDA上运行。通过我们广泛的生态系统合作伙伴网络,从云端到本地数据中心再到RTX人工智能PC。从Blackwell到SpectrumX,再到NIMS,我们已经做好准备,迎接下一波增长的到来。感谢大家。

QnA环节:

感谢Jensen,现在,我们开始进入提问环节。请大家注意,将问题限制在一个范围内。

伯恩斯坦的(Stacy Raskon:

我想深入了解一下Blackwell的全面投入生产情况。如果该产品已经不再仅仅是样品,那么这对于发货和交货时间又意味着什么?如果现在已经开始生产,那么产品何时能够真正到达客户手中呢?

我们已经开始生产一段时间了,但是我们的生产出货量将在第二季度开始,并在第三季度增加,预计客户的数据中心将在第四季度建立起来。

明白了,所以我们今年会看到Blackwell的收入,是这样吗?

是的,今年我们会看到大量的Blackwell收入。

CBS的Timothy R. Curry:

非常感谢。我想问Jensen关于Blackwell与Hopper的部署情况。考虑到系统的性质和您对GB的所有需求,这些产品的部署与Hopper有何不同?我之所以提这个问题,是因为以前没有大规模的液体冷却,而且在节点级别和数据中心内都存在一些工程挑战。那么这些复杂性是否会延长过渡期,您如何看待这一切的进展?

是的,Blackwell有多种配置。Blackwell是一个平台,而不仅仅是一个GPU。这个平台支持风冷、液冷、x86、Grace、InfiniBand、Nell Spectrum X以及我在GTC上演示过的超大NVLink域。因此,对于一些客户来说,他们将逐步加入已经安装了Hoppers的数据中心的现有安装基数。他们将能够轻松地从H100过渡到H200,再到B100。因此,Blackwell系统的设计在电气和机械方面都具有向后兼容的特点。当然,运行在Hopper上的软件堆栈将在Blackwell上完美运行。

我们一直在为整个生态系统做好准备,为液冷做好准备。我们已经与生态系统讨论了Blackwell很长时间了。无论是CSP、数据中心、ODM、系统制造商、我们的供应链、冷却供应链基础、液体冷却供应链基础,还是数据中心供应链基础,没有人会对Blackwell的到来以及我们希望通过Grace Blackwell 200提供的功能感到惊讶。GB200将表现得非常出色。

美国银行证券的Vivek Arya:

感谢您回答我的问题。Jensen,我想了解,您如何确保您的产品得到充分的利用,而不会因为供应竞争激烈或其他因素导致抢购或囤积行为?您在系统中建立了哪些检查机制,让我们有信心货币化能够跟上您强劲的出货量增长?

好的,我会从大局出发来回答您的问题。所有的数据中心对GPU的需求都是巨大的,我们每天都在与时间赛跑。这主要是因为ChatGPT和GPT 4.0等应用程序的需求,现在它们将成为多模态和Gemini和Anthropic。所有的云服务提供商都在消耗现有的每一个GPU。此外,还有大量的生成式AI初创公司,大约有15000到20000家,涉及各个领域,从多媒体到数字角色,当然还有各种设计工具应用程序、生产力应用程序、数字生物学。自动驾驶行业正在向视频转变,以便他们可以训练端到端模型来扩展自动驾驶汽车的操作领域。这个名单非常特别。

实际上,我们正在比赛。客户对我们施加了很大的压力,要求我们尽快交付系统并使其运行起来。当然,我还没有提到所有主权人工智能都希望利用其国家的所有区域自然资源(即数据)来训练其区域模型。建立这些系统的压力很大。所以无论如何,我认为需求非常非常高,而且超过了我们的供应。

从长远来看,这就是我跳出来发表一些评论的原因。从长远来看,我们正在完全重新设计计算机的工作方式。这是一个平台转变。当然,它与过去的其他平台转变相比。但时间会清楚地证明,这比以前的平台转变要深刻得多。原因是计算机不再是仅由指令驱动的计算机。它是一台理解意图的计算机。当然,它理解我们与它交互的方式,但它也理解我们的意思,我们想要它做什么,它具有推理、迭代推理以处理计划并返回解决方案的能力。因此,计算机的每个方面都在发生变化,它不再检索预先录制的文件,而是生成与上下文相关的智能答案。这将改变全世界的计算堆栈。

您在Build大会上看到,事实上,即使是PC计算堆栈也将发生革命性的变化。这只是所有事情的开始,您知道,人们今天看到的是我们在实验室中开展的工作以及我们与世界各地的所有初创公司、大公司和开发商合作的开始。这将是非常了不起的。

摩根士丹利的Joe Moore:

我了解到您对H200和Blackwell产品的需求非常强烈。在您转向这些产品的过程中,您是否预计Hopper和H100的销售会暂时停滞?人们是否会等待这些新产品的上市?这些新产品是否会成为优秀的产品,或者您认为H100的需求足以维持其增长?

我们注意到,本季度对Hopper的需求持续增长。我们预计,随着我们向H200和Blackwell的过渡,需求将在一段时间内超过供应。每个人都急切地希望他们的基础设施能够尽快上线,因为这样可以节省成本并创造收益,他们希望能够尽快实现这一目标。

高盛的Toshia Hari:

你好,非常感谢您回答这个问题。Jensen,我想询问一下关于竞争的问题。我注意到您的许多云客户都在宣布他们现有的内部程序的新版本或更新,这些都是在与您们合作的同时进行的。在中长期内,您在多大程度上将他们视为竞争对手?在您看来,他们是否只是解决大部分内部工作负载,还是在未来有可能解决更广泛的问题?谢谢。

是的,我们在几个方面有所不同。首先,NVIDIA的加速计算架构允许客户处理他们管道的各个方面,从非结构化数据处理到准备训练,再到结构化数据处理、数据帧处理(如SQL)到准备训练、训练、推理。正如我在发言中提到的,推理确实发生了根本性的变化。现在是生成。它不仅仅是试图检测猫,这本身就很难,而且它必须生成猫的每一个像素。因此,生成过程是一种根本不同的处理架构。这也是TensorRT LLM如此受欢迎的原因之一。我们在架构上使用相同芯片的性能提高了三倍。这在某种程度上说明了我们架构的丰富性和软件的丰富性。因此,您可以将NVIDIA用于从计算机视觉到图像处理、计算机图形到所有计算模式的所有领域。现在,由于通用计算已经走到了尽头,世界正遭受计算成本和计算能源膨胀的困扰,加速计算才是真正可持续的发展方式。因此,加速计算是节省计算成本和能源的方法。因此,我们平台的多功能性使数据中心的TCO最低。

其次,我们在每个云中都有。因此,对于正在寻找开发平台的开发人员来说,从NVIDIA开始始终是一个不错的选择。我们在本地,我们在云端,我们在任何大小和形状的计算机中。我们几乎无处不在。这是第二个原因。

第三个原因与我们建立AI工厂有关。人们越来越清楚地认识到,AI不仅仅是芯片问题。当然,一切都始于优秀的芯片。我们为我们的人工智能工厂制造了大量的芯片,但这是一个系统问题。实际上,现在的人工智能也是一个系统问题。它不仅仅是一个大型语言模型,而是由一系列大型语言模型组成的复杂系统,这些模型需要协同工作。因此,NVIDIA构建这个系统的事实促使我们优化所有芯片,使它们能够作为一个系统协同工作,拥有作为一个系统运行的软件,并能够在整个系统中进行优化。

用简单的数字来说明这一点,如果你有一个价值50亿美元的基础设施,如果你将性能提高了两倍,这是我们经常做的,那么当你将基础设施提高两倍时,对你来说价值就是50亿美元。数据中心的所有芯片都无法支付这笔费用。因此,它的价值确实非常非凡。这就是为什么今天性能至关重要的原因。此时,最高性能也是成本最低的,因为承载所有这些芯片的基础设施成本非常高,而且资助数据中心、运营数据中心、相关人员、相关电力、相关房地产也需要大量资金。所有这些加起来,因此,最高的性能也是最低的总体拥有成本(TCO)。

TD Cowen的Matt Ramsey:

非常感谢,大家下午好。Jensen,我的整个职业生涯都在数据中心行业。我从未见过你们以如此快的速度推出新平台,同时获得如此高的性能提升。训练速度提高了5倍,你在GTC中提到的一些内容在推理速度上提高了30倍。这是一件很神奇的事情,但它也创造了一个有趣的对比:客户花费数十亿美元购买的当前一代产品,其竞争力将远远低于新产品,而且贬值速度比新产品的贬值周期快得多。因此,如果您不介意的话,我想请您谈谈您如何看待这种情况在客户身上的发展。当您转向Blackwell时,他们将拥有非常大的安装基础,显然软件兼容,但安装基础庞大的产品性能远不及新一代产品。听听您看到客户在这条道路上发生了什么,这很有趣。谢谢。

是的,我非常感激。我想提出三点。如果您的建设进度为5%,而如果您的建设进度为95%,您的感受将大不相同。而且由于您只完成了5%,所以无论如何您都要尽可能快地进行构建。而且,当Blackwell到来时,它会非常棒。然后,正如你提到的那样,在Blackwell之后,我们还会推出其他Blackwell。然后,我们以一年为周期,正如我们向世界解释的那样。我们希望我们的客户能够看到我们尽可能远的路线图,但他们无论如何都处于建设的早期阶段。因此,他们必须持续进行建设。

确实如此,大量的芯片将会向他们涌来。他们需要继续建设,如果你愿意,可以选择以平均性能的方式进入。这无疑是一个明智的选择。他们需要在今天就开始盈利,同时也希望能够节省开支。对他们来说,时间的价值实在是无法估量。

让我给你举一个例子来说明时间的重要性。这就是为什么建立即时数据中心的想法如此有价值,以及为何获得所谓的训练时间如此重要。原因在于,下一家达到重大平台的公司可以宣布一项突破性的人工智能。而紧随其后的第二家公司则可能只能宣布一项改进了0.3%的成果。

所以问题在于,你是想成为一个不断提供突破性人工智能的公司,还是一个只能提供0.3%改进的公司?这就是为什么这场竞赛,就像所有的技术竞赛一样,如此重要。你会看到这场竞赛涉及到多家公司,因为拥有技术领导力至关重要。公司需要信任领导力,想要在你的平台上构建,并知道他们正在构建的平台会越来越好。因此,领导力至关重要。

训练时间也同样重要。训练时间的关键在于,能否提前三个月完成一个为期三个月的项目,提前开始是最重要的。这就是为什么我们现在正在疯狂地建立漏斗系统,因为下一个平台就在眼前。

这是第二个原因。你提出的第一个评论确实很棒,那就是,我们为什么能够如此快速地发展和进步?因为我们拥有所有的堆栈。我们实际上构建了整个数据中心,我们可以监控一切、衡量一切、优化一切。我们知道所有瓶颈在哪里,我们不会对此进行猜测。我们不会只是制作看起来不错的 PowerPoint 幻灯片。

实际上,我们也希望我们的 PowerPoint 幻灯片看起来不错,但我们提供的是可大规模执行的系统。我们之所以知道它们可大规模执行,是因为我们在这里构建了一切。

现在,我们所做的一件有点神奇的事情是,我们在这里构建了整个 AI 基础设施,然后我们将其分解并集成到客户的数据中心中,无论他们喜欢什么。但我们知道它将如何执行,我们知道瓶颈在哪里。我们知道需要在哪里与他们一起优化,也知道在哪些方面需要帮助他们改善基础设施以实现最佳性能。这种对整个数据中心规模的深入、细致的了解从根本上使我们今天与众不同。

我们从头开始构建每一个芯片。我们确切地知道整个系统的处理过程。因此,我们确切地了解它将如何执行以及如何在每一代中最大限度地利用它。所以我很感激。这就是三点。

Evercore ISI 的 Mark Lopakis:

你好,感谢您回答我的问题。Jensen,过去,您曾观察到通用计算生态系统通常主导每个计算时代。我坚信,通过适应不同的工作负载,我们可以提高利用率,降低计算周期的成本。这也是我推动通用图形处理器(GPU)CUDA生态系统进行加速计算的动机。如果我对这个观察有误解,请纠正我。

所以,我有一个问题。考虑到推动您解决方案需求的工作负载主要是由神经网络训练和推理驱动的,从表面上看,这似乎是有限数量的工作负载,那么它似乎也适合定制解决方案。那么,通用计算框架是否会变得更危险?或者,这些工作负载是否有足够的变化或足够快速的演变来支持历史通用框架?谢谢。

是的,这些加速计算是多功能的,但我不会称其为通用。例如,我们并不擅长运行电子表格,这实际上是为通用计算设计的。因此,操作系统代码的控制循环可能不适合通用计算,也不适合加速计算。所以,我会说我们是多功能的,这通常是我描述它的方式。

多年来,我们能够加速的应用领域非常丰富,但它们都有很多共同点。也许有一些深刻的差异,但都是共同点。它们都是我可以并行运行的东西。它们都是高度线程化的。例如,5% 的代码代表了 99% 的运行时间。这些都是加速计算的属性。

我们平台的多功能性以及我们设计整个系统的事实,是在过去 10 年左右的时间里,你们在这些电话会议中询问我的初创公司数量相当多的原因。由于它们架构的脆弱性,每当生成式人工智能出现,或者当扩散模型出现时,下一个模型就会出现。现在,突然间,看看这个,具有内存的大型语言模型。因为大型语言模型需要有记忆,这样它们才能与你进行对话,理解上下文。突然之间,Grace 内存的多功能性变得非常重要。

因此,生成式人工智能和人工智能发展中的每一个进步都要求不要只为一个模型设计一个部件,而要有一个真正适合整个领域、整个领域的属性但又遵循软件第一原则的东西。该软件将继续发展。该软件将不断变得更好、更大。我们相信这些模型的扩展。有很多理由可以解释为什么我们将在未来几年内轻松扩展一百万倍,我们对此充满期待,并为此做好了准备。

因此,我们平台的多功能性确实非常关键,而且它不是……如果你太脆弱、太具体,你不妨只构建一个 FPGA 或 ASIC 或类似的东西,但这几乎不能算作计算机。

Jeffries 的 Blaine Curtis:

谢谢你回答我的问题。我其实有点好奇。由于供应受限,您如何看待……您为中国推出了一款 H20 产品。我预设了该产品的需求量会很大,但显然您正在尝试使用其他Hopper产品来满足您的客户需求。我对您如何规划下半年的业务感到好奇,如果您能详细说明任何可能的影响,以及您对销售和毛利率的看法,我将不胜感激。我没有听到您的问题,有些声音似乎消失了。我想了解H20以及您如何在不同的Hopper产品之间分配供应。

我们尊重每一位客户,并致力于为他们提供最优质的服务。实际上,我们在中国的业务规模已经远低于过去。由于我们技术的限制,现在在中国的竞争更加激烈。尽管如此,我们将继续尽最大努力为那里的客户和市场提供服务,并尽我们最大的努力做到最好。但我认为总体而言,我们关于需求超过供应的评论是针对整个市场,尤其是年底的H200和Blackwell。

Raymond James的Sreeni Pazhuri:

Jensen,我需要您进一步澄清一下您的观点。GP200系统,看起来对系统的需求很大。从历史上看,我认为您已经销售了很多HGX主板和一些GPU,而系统业务相对较小。所以我很好奇,为什么现在您看到对系统的需求如此强劲?这只是TCO还是其他原因,还是只是架构?谢谢。

是的,我很感激。实际上,我们销售GP200的方式是一样的。我们将所有有意义的组件分解,并将其集成到计算机制造商中。今年,我们将为布莱克威尔提供100种不同的计算机系统配置。这超出了预期。坦率地说,Hopper只拥有一半的市场份额,但那已经是巅峰了。它一开始的市场份额甚至比这还要少。所以你会看到液冷版本、风冷版本、x86版本、grace版本等等。正在设计的系统种类繁多。它们由我们所有优秀的合作伙伴生态系统提供。实际上什么都没有改变。

现在,当然,Blackwell平台极大地扩展了我们的产品范围。CPU的集成和更紧凑的计算密度、液冷将为数据中心节省大量的电力配置成本。更不用说更节能了。所以这是一个更好的解决方案。它更具扩展性,这意味着我们提供更多的数据中心组件。每个人都是赢家。数据中心的性能得到了提高。网络,从网络交换机到网络,当然还有NIC。我们现在有了以太网,这样我们就可以将NVIDIA AI大规模地带给那些只知道如何操作以太网的客户,因为他们拥有生态系统。因此,Blackwell的扩展性更强。在这个时代,我们为客户提供了更多的服务和产品。

Truist Securities的William Stein:

Jensen,有一段时间,尽管市场上有相当优秀的CPU可供数据中心运营,但NVIDIA决定,基于ARM的Grace CPU提供了一些真正的优势,使得这项技术值得交付给客户,这可能与成本有关,或者与Grace和Hopper或Grace和Blackwell之间的功耗或技术协同作用有关。您能否谈谈在客户端是否可能出现类似的情况,即尽管有非常好的解决方案,但您强调英特尔和AMD是非常好的合作伙伴,并在x86中提供出色的产品。但可能也有一些优势,特别是在新兴的AI工作负载中,NVIDIA可以提供一些优势,而其他公司则面临更大的挑战。

您提到了一些非常好的理由。确实,对于许多应用程序而言,我们与x86的合作,我们的x86合作伙伴确实非常棒,我们共同构建了出色的系统。但Grace使我们能够做一些在今天的配置、系统配置下不可能做到的事情。Grace和Hopper之间的内存系统是连贯且连接的。两个芯片之间的互连,称之为两个芯片几乎很奇怪,因为它就像一个超级芯片。它们两个通过这个接口连接。这相当于每秒1TB。这超出了图表。Grace使用的内存是LPDDR。这是第一个数据中心级低功耗内存。因此,我们在每个节点上节省了大量电量。

最后,由于架构的原因,因为我们现在可以用整个系统创建自己的架构,我们可以创建具有非常大的NVLink域的东西,这对于下一代大型推理语言模型至关重要。所以你看到GB200有一个72节点的NVLink域。这就像72个Blackwell连接在一起形成一个巨大的GPU。所以我们需要Grace Blackwell才能做到这一点。因此,有架构原因,有软件编程原因,然后有系统原因,这些对于我们以这种方式构建它们至关重要。所以如果我们看到这样的机会,我们会探索它。

今天,正如你在昨天的构建中看到的,我认为这真的很棒,Satya宣布了下一代PC,Copilot Plus PC,它在笔记本电脑中出货的NVIDIA RTX GPU上运行得非常出色。但是,它也很好地支持ARM。因此,它为系统创新,甚至为个人电脑创新开辟了机会。

Candor Fitzgerald的CJ Mews:

下午好。我想,Jensen,这是一个长远的问题。我知道Blackwell还未发布,但显然投资者都是有远见的,他们面临着来自GPU和定制ASIC的潜在竞争。您如何看待NVIDIA未来的创新速度?过去十年,您的规模扩大了数百万倍,这确实令人印象深刻。CUDA、稀疏性、精度、优雅性、连贯性和连通性。展望未来,未来十年需要解决哪些摩擦?我想也许更重要的是,您今天愿意与我们分享什么?

好的,我可以宣布,继Blackwell之后,我们还有另一款芯片在研发中。我们正处于一年一个新产品的节奏中。您可以期待我们将以非常快的速度推出新的网络技术。我们已经宣布推出用于以太网的Spectrum X。我们全力投入以太网的研发,我们有一个令人兴奋的以太网路线图。我们拥有丰富的合作伙伴生态系统,戴尔已经宣布他们将把Spectrum X推向市场。我们拥有丰富的客户和合作伙伴生态系统,他们将宣布把我们的整个AI工厂架构推向市场。

因此,对于那些想要获得最高性能的公司,我们有InfiniBand计算结构。InfiniBand是一种计算结构,以太网是一种网络。多年来,InfiniBand最初是一种计算结构,后来成为一种越来越好的网络。以太网是一种网络,借助Spectrum X,我们将使其成为一种更好的计算结构。我们全力投入到这三个环节:用于单个计算域的NVLink计算结构、InfiniBand计算结构、以太网网络计算结构。因此,我们将以非常快的速度推动这三个方面的发展。

因此,您将看到新的交换机、新的网络接口卡(NIC)、新功能以及在这三个方面运行的新软件堆栈。新的CPU、新的GPU、新的网络NIC、新的交换机,大量新的芯片即将问世。所有这些,最美妙之处在于它们都运行CUDA。所有这些都运行我们的整个软件堆栈。所以,如果你今天投资我们的软件堆栈,不用做任何事情,它就会变得越来越快。如果你今天投资我们的架构,不用做任何事情,它就会进入越来越多的云和越来越多的数据中心。一切都会运行。

所以,我认为我们带来的创新步伐一方面会提高能力,另一方面会降低总体拥有成本(TCO)。因此,我们应该能够利用NVIDIA架构来扩展这个新的计算时代,并开启这场新的工业革命,我们不仅制造软件,还制造人工智能Token。我们将在大规模上实现这一目标。

感谢您的参与。至此,我们今天的问答环节和电话会议就此结束。