打开网易新闻 查看精彩图片

整理:前沿在线 编辑部

欢迎来到GTC,我只是想提醒你这是个技术会议,这些人一大早就排着队,在座的各位很高兴见到你们。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

GTC,我们要谈谈技术,我们要谈谈平台,NVIDIA有三个平台,你认为我们经常谈论他们中的一个,它和CUDA有关,我们的系统是另一个平台,现在我们有了一个名为AI工厂的新平台,我们要谈谈他们所有人,最重要的是,我们要谈谈生态系统。

但在我开始之前,让我感谢我们赛前节目的主持人,我觉得他们做得很好,Sarah、Alfred Lin,红杉资本英伟达的第一位风险投资家,Gavin Baker英伟达的第一个主要机构投资者,这三个人技术很深,在正在发生的事情中,当然还有他们拥有非常广泛的技术生态系统,当然还有我今天挑选的所有贵宾都加入了我们全明星队,我要为此感谢你们所有人。

打开网易新闻 查看精彩图片

我还要感谢所有到场的公司,如你所知英伟达是一家平台公司,我们有技术,我们有平台,我们有丰富的生态系统,今天可能有这里100万亿美元的工业的100%,450家公司赞助了这次活动,我想谢谢你。

打开网易新闻 查看精彩图片

这次技术会议有2000名发言者,这次会议将涵盖每一层,人工智能的五层蛋糕

打开网易新闻 查看精彩图片

CUDA 二十周年回顾

这次会议将涵盖人工智能五层蛋糕的每一层,从陆地电力外壳,基础设施,到芯片,到平台,模型,当然还有。而归根结底,推动这个行业真正腾飞的,正是各种应用场景。当一切开始时,一切都从这里开始。这是CUDA成立二十周年。我们为CUDA工作了二十年。

打开网易新闻 查看精彩图片

二十年来,我们一直致力于这种架构,这项革命性的发明,SIMT(单指令多线程)执行标量代码。代码可以生成多线程应用程序,比SIMD更容易编程。我们最近新增了Tile,以便帮助开发者编程张量核心以及那些对当今人工智能至关重要的数学结构。数以千计的工具和编译器、框架和库。在开源领域,有几十万个公开项目

CUDA确实已经深度集成到每一个生态系统中。这张图表。基本上描述了你一直在看我从一开始就谈论这张幻灯片的100%策略,最终最难实现的是底部的东西,安装基础

我们花了20年的时间才在世界各地建立了数亿个运行CUDA的GPU和计算系统。我们在每个云,我们在每个计算机公司。我们几乎服务于所有行业。CUDA的庞大用户基数正是飞轮效应加速的原因。安装的基础吸引了开发人员,然后开发人员创建了实现突破的新算法。例如,深度学习。还有好多呢。这些突破性进展催生了全新的市场,并在其周边构建起由多家企业共同参与的新生态系统,从而形成更大的用户基础。

这个飞轮,这个飞轮现在正在加速,CUDA库的下载数量正在加速。规模非常庞大,且增长速度前所未有。正是这个飞轮机制,使得该计算平台能够支撑如此众多的应用和层出不穷的创新突破,而最为关键的是……它也使这些基础设施具有非凡的使用寿命。而原因非常明显。有这么多的应用程序,你可以在NVIDIA CUDA上运行。

我们支持AI生命周期的每个阶段。我们覆盖每一个数据处理平台。我们加速了各种类型的科学原理性求解器。因此,其应用范围非常广泛,一旦安装了NVIDIA显卡,它的使用寿命就会非常长。这也是原因之一。我们大约六年前运送它们的AmpereAmpere在云中的价格正在上涨,因此所有这些从根本上成为可能,因为安装的基础很高,飞轮很高,开发人员的影响力很大。

而当这一切发生,并且我们持续更新软件时,计算成本就会……减少加速计算的组合,极大地加快了应用程序的速度。与此同时,我们仍在持续维护并不断更新软件。您不仅可以获得首次提升,还可以随着时间的推移不断降低加速计算的成本。我们愿意培育,愿意支持世界上的每一个GPU,因为它们在架构上都是兼容的。

我们愿意这样做,是因为我们的用户基数非常庞大。如果我们推出一项新的优化,它将惠及数百万用户。这适用于世界上每一个人。这种动态组合使NVIDIA架构扩大了其覆盖范围,加速了其增长,同时降低了计算成本,最终鼓励了新的增长。

打开网易新闻 查看精彩图片

从GeForce到CUDA的25年旅程

所以,CUDA是其中的核心。但我们的旅程,CUDA实际上是二十五年前开始的GeForce。我知道你们当中有多少人是伴随着……长大的。

打开网易新闻 查看精彩图片

"GeForce是NVIDIA最伟大的营销活动。我们会在您尚无力承担之前,就着手吸引未来的客户。你父母付钱。你父母付的钱。你的父母付钱让你成为NVIDIA客户。每年,他们年复一年地付钱,直到有一天你成为一名了不起的计算机科学家,成为一个合适的客户,一个合适的开发商。但这是,这是GeForce 25年前制造的房子

25年前,我们开始了通往CUDA的旅程。我们发明了可编程的着色器,一个完美的。使加速器可编程的不明显的发明。25年前,世界上第一个可编程加速器Pixel Shader使我们进行了进一步的探索。

二十年后,五年后,CUDA的发明。我们做的最大的投资之一,我们当时负担不起,它消耗了我们公司的绝大部分利润,就是把GeForce背后的CUDA带到每一台电脑上。我们致力于创建这个平台,因为我们对它的潜力感到非常强烈。但最终,该公司的奉献精神尽管。一开始的艰辛,每天都相信它十三代或二十年,我们现在到处都安装了CUDA,Pixel Shader

当然,导致了GPU革命。然后十年前,我们介绍了大约十年前,它是什么?八年前,我们推出了RTX。为现代计算机图形学时代对我们的体系结构进行了全面的重新设计。GeForce将CUDA带到了世界。因此,GeForce使Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng和其他许多人发现GPU可以成为他们加速深度学习的朋友。它开始了人工智能的大爆炸

十年前,我们决定融合。可编程着色和引入两个新的想法:光线跟踪,硬件光线跟踪,这是非常困难的,和一个新的想法。想象一下,大约十年前,我们曾认为人工智能将会彻底变革计算机图形学。就像首席搜查令一样。如今,人工智能将重塑并彻底革新计算机图形学的整个制作流程

今天我要给大家展示一些未来的东西。这是我们新一代的图形技术。我们称之为神经渲染,融合,三维图形和人工智能的融合。这就是DLSS 5。看看吧。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

那是不是太棒了?那第二。现在我们做了什么?我们融合了可控的3D图形,虚拟世界的真实情况,结构化数据

记住这个词:虚拟世界的结构化数据,以及生成世界的结构化数据。我们结合了3D图形。有了生成式人工智能,概率计算,其中一个是完全预测的,另一个是概率但高度现实的。

我们结合了这两个想法,结合了这两个想法,通过结构化数据进行控制,完美控制,同时又生成。因此,内容是美丽的,惊人的,以及可控的。将结构化信息与生成式人工智能相融合这一理念,将在一个又一个行业中不断涌现。

打开网易新闻 查看精彩图片

结构化数据与非结构化数据

结构化数据是可信人工智能的基础。这会吓你一小跳。我要翻下一张幻灯片,别惊呼哦。那么接下来的时间里,我们就来过一遍原理图。这就是我最好的了。每次我问我。一次又一次,这就是了。他们说,不要这样做,Jensen。别这么做。我说:"不,这些座位是免费的。"对你们中的一些人来说。所以,这就是你的任务代价。

打开网易新闻 查看精彩图片

所以,这就是结构化数据。你听说过它,SQL,Spark,pandas,Velox,其中一些非常非常重要,非常大的平台,Snowflake,Databricks,EMR,亚马逊EMR,Azure FabricGoogle Cloud BigQuery,所有这些平台都在处理数据帧。这些数据帧是巨大的电子表格,它们保存着所有的生命。这就是结构化数据,是业务的真值。这就是企业计算的真相。那么,现在我们要让人工智能使用结构化数据,而且最好赶紧把这事推进得飞快。

以前还好,我们当然也会啊,你知道的。我们会加速结构化数据,这样我们就可以做更多的事情,我们可以更便宜地做,我们可以每天更频繁地做,让公司以更同步的方式运行。然而,未来将会发生的是,这些数据结构将被使用。它会很多。未来的Agent数据库也是,当然。结构化数据库,即生成式数据库

此数据库表示。世界上大多数矢量数据库非结构化数据,PDF,视频,演讲,世界上所有的信息。关于90%产生的东西。这个开着呢。直到现在,这些数据对世界来说都毫无用处。我们读取它,把它存入我们的文件系统,就完成了。不幸的是,我们无法查询它,也无法搜索它。那很难做到。而其原因在于。轻松索引非结构化数据。你必须了解他们的需求。

所以现在我们有了。就像人工智能能够解决多模态感知一样,你可以连接并理解它。多模态感知和理解去阅读。这个意思和发现这个意思嵌入到一个更大的结构中,我们可以搜索,我们可以查询。NVIDIA创建了两个基础库。cuDF,我们为数据帧、结构化数据创建了cuDF。我们为向量存储创建了cuVS,语义。非结构化数据,AI数据,这两个平台。

两个最重要的因素。非常激动地看到它在整个网络中的广泛应用。这个复杂的网络。一个过程。在很长一段时间内,因此有许多不同的公司和平台。一直深入融入这个生态系统。我为我们在这里所做的工作感到非常自豪。

打开网易新闻 查看精彩图片

合作伙伴宣布:IBM、戴尔、谷歌云

然后今天,我们宣布了几项。SQL是有史以来最重要的领域特定语言之一,它的发明者正在使用cuDF加速Watson X数据。让我们来看一下吧。

60年前,IBM推出了系统360,这是第一个用于通用计算的现代平台,开启了计算时代。然后SQL一种声明性语言来查询数据,而无需逐步指示计算机。和数据仓库,每一个都是现代企业计算的基础。今天,IBM与NVIDIA正通过利用NVIDIA GPU计算库加速IBM Watson X的数据SQL引擎,重新定义人工智能时代的数据处理方式。

打开网易新闻 查看精彩图片

数据是为人工智能提供上下文和意义的客观事实。人工智能需要快速访问海量数据集。

当今的CPU数据处理系统已经难以胜任雀巢每天做出数千项供应链决策。他们的订单到现金数据市场汇总了每一次供应、订单和交付。在180个五的全球业务中。在CPU上,雀巢通过在NVIDIA GPU上运行的加速Watson X数据,每天刷新几次数据标记。雀巢可以以83%更低的成本运行相同的工作负载,速度提高五倍。下一代计算平台已经到来。面向人工智能时代的加速计算

然后加速云中的数据处理。我们还在本地环境中加速数据处理。如您所知,戴尔是世界领先的计算机系统制造商,也是世界领先的存储提供商之一。他们与我们合作创建了集成了cuDF和cuVS的戴尔AI数据平台,以创建加速数据。嗯,对于人工智能时代来说。这是他们对NTT数据所做的一个例子,巨大的加速。

这是云,谷歌云。而Google Cloud,如你所知,我们已经与Google Cloud合作了很长时间。我们加速谷歌的Vertex AI。我们现在加速BigQuery,这是非常重要的框架和非常重要的平台。这就是一个例子。

有了Snapchat,我们将他们的计算成本降低了近8%。当你加速数据处理、加速计算时,不仅能获得速度和规模带来的优势,更重要的是,还能降低总体成本。所以所有这些都来了。

打开网易新闻 查看精彩图片

加速计算与摩尔定律

它最初被称为摩尔定律。摩尔定律的核心在于使性能每隔几年就能翻一番。这只是另一种说法,意思是只要价格大致保持不变。你每年也会得到两倍的性能,或者你。计算的成本。尽管摩尔定律已难以为继,我们亟需一种新的方法加速计算使我们能够采用这些。而正如你将会看到的。因为我们继续。这是一家算法公司,因为我们继续优化算法,因为我们的覆盖面如此之大,我们的安装基数如此之大,我们可以降低计算成本,增加计算成本。对于每个人来说,这就是Google Cloud。

打开网易新闻 查看精彩图片

你可以看到我刚才提到的这种模式。我只是想给你展示三个版本而已。英伟达构建了加速计算平台。它上面有一堆库。我给了你三个。cuDNN是其中之一。cuDF是另一种cuVS,我们将向您展示更多。这些库位于我们的平台之上,但最终我们融入了世界的云服务,融入了世界的OEM。一起和其他平台,我将一起向您展示,我们能够走向世界。NVIDIA,Google Cloud,Snapchat中的这种模式会一遍又一遍地重复,看起来像这样。

因此,这是NVIDIA与Google Cloud的一个示例。我们加速Vertex AI,我们加速BigQuery,我们加速。我为我们使用JAX和XLA所做的工作感到非常自豪。我们在PyTorch上令人难以置信。我们是世界上唯一令人难以置信的加速器。令人难以置信的JAX和XLA和我们支持的客户,Base TenPuma销售人员,他们不是我们的客户,但他们是我们的客户,我们的开发商。技术,然后我们可以降落在云上,我们与云服务提供商的关系。本质上是我们带来客户。我们整合我们的库,我们加速。于是我们去了。在云里。正如你所看到的,我们的大多数云服务提供商都喜欢与我们合作,他们总是要求我们将下一个客户放在他们的云上。而我只是想。有很多顾客。我们要加速所有人。所以他们会是一个。在你的云里,对我们耐心点。

打开网易新闻 查看精彩图片

与AWS、微软Azure、Oracle等合作

这是Google Cloud,这是AWS。我们与AWS合作已经很长时间了。其中一个领域。今年我非常兴奋的一件事是我们将把OpenAI引入AWS,这将推动云计算的巨大消费,AWS将扩大OpenAI的覆盖范围,扩大OpenAI的计算,正如你所知,它们完全受计算限制。因此,AWS,我们加速EMR,我们加速SageMaker,我们加速Bedrock,NVIDIA真正深入集成到AWS中。他们是我们的首家云合作伙伴

微软AzureNVIDIA的A100超级计算机是我们为NVIDIA建造的第一台。我们在Azure安装了一个,这导致了与OpenAI的巨大成功合作。不过,我们与Azure合作已经很长时间了。我们加速Azure云。如今,我们与他们的AI晶圆厂展开了深度合作。我们加速Bing搜索。我们与他们在Azure区域上合作。在我们持续在全球范围内推广人工智能的过程中,这正是一个极其重要的领域之一。

打开网易新闻 查看精彩图片

在世界范围内,我们提供的功能之一是机密计算。在机密计算中,您要确保即使操作员也看不到您的数据。即使操作员不能触摸或看到你的模型。机密计算,NVIDIA的GPU是世界上第一个做到这一点的GPU。它现在能够支持这些非常有价值的开源的机密计算和受保护的部署。整个云和不同区域的人工智能模型和人类模型,所有这些都是因为我们的机密计算。

机密计算非常重要。这里有一个例子,我们有不同的客户,我们的工作。Synopsys,我们的伟大合作伙伴,我们正在加速他们所有的EDA和CAE工作流程。在微软,是的。

我们是Oracle。大多数人会认为我们是他们的第一个供应商。我们也是他们的第一个供应商,但我们是他们的第一个AI客户。我很自豪我第一次向Oracle解释了AI云,我们是他们的第一个客户。从那以后,他们真的起飞了。我们在那里找到了一大堆合作伙伴,Cohere Fireworks,当然还有非常著名的Oracle。我和Larry是很好的伙伴关系。

打开网易新闻 查看精彩图片

CoreWeave,他们是世界上第一个人工智能原生云,这是一家只有一个单一的公司。随着加速计算时代的到来,提供主机GPU,并为AI云提供主机。他们拥有一批非常优秀的客户,而且业务正以惊人的速度增长。

让我感到非常兴奋的平台之一就是Palantir和戴尔。我们三家公司共同打造了一种全新的AI平台——Palantir本体平台,这是一款人工智能平台。我们可以站起来。任何地区的任何国家。完全在本地部署,完全。完全在现场,人工智能可以部署在任何地方,没有我们的机密计算能力,没有我们构建端到端系统的能力。提供全部。来自数据处理的加速计算和AI堆栈。或者一直到AI的结构。这是可能的。

打开网易新闻 查看精彩图片

全球云服务合作伙伴关系

我想给你看看这些。这是我们与全球云服务提供商的特殊合作关系。很多人,嗯,都在这里。我受益于在靴子巡回演出中看到它们。真是难以置信。我只想感谢你们所有人的辛勤工作。你会一遍又一遍地看到这件事。NVIDIA是。全球第一家纵向一体化但横向开放的公司

而之所以有必要,原因非常简单。加速计算并不是芯片问题。加速计算并不是一个系统性问题。加速计算中少了一个词。我们就是再也不说了。应用,加速。如果我可以让计算机更快地运行所有内容,那就称为CPU。但那已经没有动力了。我们加速应用程序向前发展并继续带来巨大速度的唯一方法,就是通过特定于应用程序或领域的加速来大幅降低成本。

打开网易新闻 查看精彩图片

我掉了那个。短语在前面,因此刚刚成为加速计算,这就是为什么NVIDIA必须是库后库,域后域,垂直后垂直的原因。我们是一家垂直整合的计算公司。没有别的办法。我们必须理解应用程序,我们必须理解领域,我们必须从根本上理解算法,我们必须弄清楚如何部署算法。无论它想要部署什么场景,无论是数据中心、云、边缘的本地、机器人系统,所有这些计算系统都是不同的。最后,是系统和芯片。我们实行垂直一体化

是什么让它如此强大,以及为什么你看到所有的幻灯片,特别是在拉斯维加斯,水平开放的原因。以及您希望我们集成到的任何平台上的最大技术。我们为您提供软件,我们为您提供。我们与您的技术进行集成,以便我们能够……。计算给世界上的每个人。

打开网易新闻 查看精彩图片

GTC生态系统与行业覆盖

好吧。这个GTC确实是一个很好的证明。你知道,大多数时候,大多数时候你会看到我谈论这些垂直行业,我会用一些例子,但在每一个例子中。无论是汽车,顺便说一句,金融服务,在这个GTC的与会者中,来自金融服务行业的比例最大。我知道,我希望是开发者而不是交易员。

各位。这里是。有一件事我想说。在观众中。NVIDIA的生态系统位于我们供应链的上游和下游,我们在工作。观察上游和下游,这太令人兴奋了。我们的整个。Fly去年改变了这一点。不管怎样。一年的公司,我们有七年的公司,我们有100。公司现在是NVIDIA供应链的一部分,并在上游或下游与我们合作。去年,你有创纪录的一年,不是吗?恭喜你。我们有所发现。这是非常非常大的事情的开始。

打开网易新闻 查看精彩图片

所以如果你看看加速计算,我们现在已经设置了计算平台,但是为了让我们激活这些计算平台,我们需要有特定领域的库来解决我们所处理的每个垂直领域中非常重要的问题。您会看到我们正在逐一解决这些问题。自动驾驶汽车,我们的范围,我们的广度,我们的影响。难以置信。我们刚才提到的金融服务领域有一条赛道。算法交易正在从经典的机器学习与称为quant的人类特征工程,quants做到了现在的超级计算机研究大量数据,发现洞察力和。所以这是通过它的。这是真的。

打开网易新闻 查看精彩图片

医疗保健正在经历他们的聊天GPT时刻。一些非常令人兴奋的工作,我们在那里。我们这里有一条非常精彩的主旨演讲议程。我们有一个很棒的主题曲目,Kimberly Powell,一个很棒的医疗保健主题曲目。

我们谈论的是用于药物发现的AI物理学或AI生物学,用于客户服务和支持诊断,诊断的AI代理,当然还有物理AI机器人系统。所有这些不同。人工智能的载体有不同的平台,NVIDIA提供工业。我们完全是。开始人类历史上最大的建筑。世界上大多数建造人工智能工厂、建造芯片工厂、建造计算机工厂的行业今天都在这里代表。

媒体娱乐,游戏,当然,实时AI植物。这样我们就可以翻译和播放支持直播游戏和直播视频。大量的AI将会增强。我们有一个叫做"全息量子"的平台。这里有35家不同的公司与我们一起构建下一代量子GPU混合系统零售和CPG使用NVIDIA进行供应链,使用创意。客户支持的人工智能代理,这里正在做很多工作,35万亿美元的行业机器人,50万亿美元的制造业

NVIDIA在这一领域已经工作了十年,制造了三台计算机,基础计算机。构建机器人系统。我们已与我们所知的每一家机器人制造企业实现了无缝对接和深度合作。我们在展会上有110机器人,然后是电信,大约与世界IT行业的2万亿美元一样大。

当然,我们到处都可以看到基站。基础设施。正是上一代计算基础设施,将被彻底重塑。那个基站是。它做一件事,那就是基站。未来它将成为一个AI基础设施平台人工智能将在边缘运行。那里有很多很棒的讨论。我们的AI与诺基亚建立了大型合作伙伴关系,与T-Mobile以及其他许多合作伙伴关系。

打开网易新闻 查看精彩图片

CUDA X 库与算法创新

我们业务的核心。我刚才提到的一切,计算平台,但非常重要的是,我们的CUDA X库,我们的CUDA X。算法,激发事件的算法,我们是一个。是什么让我们与众不同,这就是。这就是使我能够进入这些行业中的每一个行业,想象未来并拥有世界的原因。描述和解决问题,重构它,重新表达它。把它变成库。我们有很多。

我想我们在这个展会上,我们宣布了100个库做四十个模型,那只是在展会上。我们一直在更新这些内容。我们一直在更新它们。库。我们公司的皇冠上的宝石。正是它使得那个平台——计算平台——成为可能。在服务中。使影响成为最大,最重要的之一。

cuDNNCUDA深度神经网络。它彻底革新了人工智能。它引起了现代人工智能的大爆炸。让我给你看一个关于CUDA的简短视频。

二十年前,我们为CUDA构建了一个用于加速计算的单一架构。今天,我们重新发明了计算机一千个CUDA X库帮助开发人员在科学和工程的各个领域取得突破。选择决策优化的人。cuLitho用于计算光刻。直接的QDSS。"几何感知神经网络的等方差"。AI RAN的天线Warp微分物理基因组学的配对砖块。它们的基础是算法,而算法本身十分优美。

你看到的一切都只是模拟。其中一些是主要的解决者,基础物理解决者。其中一些是AI代理AI物理模型,还有一些是物理AI机器人模型。一切都进行了模拟。什么都没有动起来。什么也没有阐明。一切都完全模拟了。这正是英伟达的核心业务所在。正是通过对……的理解与连接,我们的计算平台能够打开这些机会。与世界开放横向集成的集成计算公司。这就是CUDA X

打开网易新闻 查看精彩图片

AI原生企业与行业变革

嗯,刚才你看到了一大堆公司。你看到了沃尔玛,你知道,有欧莱雅和令人难以置信的公司,成熟的公司。这些公司中的公司已经定义了今天的社会。丰田在这里。这些是一些最大的公司。这也是真的。

打开网易新闻 查看精彩图片

有一大堆你从未听说过的公司。这些是我们称之为AI原住民的公司,一大堆小公司。这个名单是巨大的。我不能,这只是一点点,一点点。而我始终拿不定主意,到底是多给你看一些,还是少给你看一些。于是我就把它设置成让你一个都看不见。

然而,在这份名单中,有一群全新的公司。你可能听说过其中的几个OpenAI Anthropic,但有一个。还有一大堆其他人。过去两年发生了一些事情,特别是去年。我们一直在合作。去年。我会向你解释的。

这个行业被搞砸了。数十亿美元的投资进入创业公司的风险投资是人类历史上最大的。这也是投资规模第一次从数百万美元、数千万美元,到数亿美元、数十亿美元。

原因是这是历史上第一次,这些公司中的每一家都需要计算和大量的计算。他们需要token,很多很多。他们要么需要,要么创建、构建和创建token并生成token,要么他们将进入。

Anthropic和OpenAI和其他人创建的可用token增加价值。所以这个行业在很多不同的方面是不同的,但有一件事是非常清楚的,他们正在产生的影响,他们已经提供的令人难以置信的价值是相当明显的。AI原住民

这一切都是因为我们重新发明了计算机。就像PC革命期间一样,创建了一大堆新公司。就像在互联网革命期间,在移动云中创建了一大堆公司一样,也创建了一大堆公司。

他们每个人都有自己的标准。而我们正在讨论的,正是刚刚出台的一项重大标准,其重要性不言而喻。而这一代人,我们也拥有一大批非常、非常特别的企业。我们重新定义了计算。

很显然,将会涌现出一大批全新的、至关重要的企业。世界未来的重要公司,谷歌,亚马逊,Meta,这些公司都是由于上一次计算平台转变而产生的重要公司。我们现在正处于新平台转变的开始

打开网易新闻 查看精彩图片

生成式AI与推理拐点

但是发生了什么。正如你所知,我们一直在关注,我们一直在研究深度学习和人工智能,现代人工智能的大爆炸。我们就在现场,我们已经推进这个领域很长一段时间了。

为什么是过去两年?发生了什么。当然,ChatGPT开启了生成AI时代。它不仅能够理解,感知和理解,还能够翻译和生成独特的内容。我向你展示了生成人工智能的融合。它带来了计算机图形。你们,世界上的每个人都应该使用ChatGPT。我知道我每天早上都会用它。

因此,ChatGPT是生成AI时代。顺便说一句,这是第二种生成计算与我们使用的方式。并非如此。生成式人工智能是一种软件能力,但它已深刻改变了计算的方式。计算过去是基于检索的

现在它是生成的。当我谈论某些事情时,请记住这个想法,您会意识到为什么我们所做的一切都将改变计算机的架构方式,计算机的提供方式,计算机的构建方式。计算的意义是什么?

《人工智能二十三》和《二十二二十三》杂志。下一个推理AI零一,其中。三个推理。允许它自己思考,允许它计划,分解,分解问题并将它无法理解的问题分解为它可以理解的步骤或部分。它可以立足于研究。零一使生成性AI值得信赖和扎根。这导致ChatGPT简单地起飞了。那是一个非常非常重要的时刻。

为了产生所需的输入token的数量和为了推理而产生的输出token的数量,模型有点大。当然,你可以有更大的模型。模型零一有点大,没有太大。但它是上下文的输入token使用。它的输出token用于思考极大地增加了计算量,然后是第一个模型的四代码。代码编译它,测试它,评估它,返回并迭代它。众所周知,AI代码已经彻底改变了软件工程。NVIDIA的100%正在使用代码的组合,或者通常是所有这三个组合,AI代码,Codex和Cursor遍布NVIDIA。

如今,没有哪位软件工程师不是在一位或多位AI助手的辅助下进行编码的完全AI代码。新的拐点和第一次。你不会问AI什么,在哪里,何时,如何。你问吧。创建,执行,构建。你让它使用工具、获取你的上下文、读取文件。它能够在发育上。一个问题,关于它的原因,反思它。它能够解决问题并实际执行任务。一个能够感知的AI变成了一个。一个可以产生的AI变成了一个可以推理的AI。一个可以推理的人工智能现在变成了一个可以实际工作的人工智能,非常有生产力的工作。

过去两年的计算量,我们知道在座的每个人都知道NVIDIA GPU的计算需求是超标准的。现货价格飞涨。如果你尝试过,你找不到GPU,但与此同时,我们正在推出GPU。令人难以置信的数量。需求一直在上升。这是有原因的,这种基本的变化。最后,人工智能能够做富有成效的工作,因此是推理的拐点

人工智能现在必须思考了。为了思考,它必须推理人工智能现在必须做了。为了做到这一点,它必须。人工智能必须阅读,为了做到这一点,它必须推理,它必须推理,它有。AI的每个部分,每次都必须思考,必须推理,必须做。它必须跳跃。过去的推理,现在已经过去了。它在推理领域,所以。已经到达。在token的数量时,计算的数量。大约增加了10,000倍

现在,当我将这两个结合起来时,事实是自过去两年以来的计算需求。已经上升了10,000倍和使用量。使用量可能增加了一百倍。人们听到我说,我相信计算需求。在过去的两年里,我们都有100万次这样的感觉。就是那种感觉。这是OpenAI的感觉,这是Anthropic的感觉。如果他们能够获得更多的容量,他们可以产生更多的token,他们的收入就会增加。更多的人可以使用它,更先进的人工智能可以成为。我们现在正处于那个正向的飞轮效应系统中。我们已抵达那个时刻——转折点,推论之处

打开网易新闻 查看精彩图片

万亿美元AI工厂愿景

去年这个时候,我说。我当时站在哪里,我们看到了。5000亿美元。我们看到了5000亿美元。对采购订单的信心非常高。Blackwell和Rubin 2026年。我去年就说过这话。

现在,我不知道你们是否有同样的感觉,但是5000亿美元是一笔巨大的收入。一个都没被打动。我知道你们为什么不太激动,因为去年对大家来说都是创纪录的一年。

嗯,我就是来告诉你这件事的。但现在我站在GTC DC后短短几个月。上一次GTC一年后,就在我站的地方。我能看到2027年。1万亿美元。这就是我们在剩下的时间里谈论的。

打开网易新闻 查看精彩图片

事实上,我们会短缺。我确定。计算需求将比这高得多,这是有原因的。所以第一件事是。我们确实这样。当然,如你所知,二十五五年是NVIDIA的推理年。我们希望确保我们不仅擅长培训和后期培训,而且我们在人工智能的每个阶段都非常擅长,这样我们对基础设施的投资就可以尽可能长时间地扩展。而英伟达的基础设施使用寿命很长,因此其成本将非常低廉。使用时间越长,成本就越低。

在我心里毫无疑问。英伟达的系统是目前全球人工智能基础设施中成本最低的方案。因此,第一部分是去年关于基础设施的AI。它推动了这个拐点。同时,我们很高兴去年Anthropic来到Nvidia,Mistral AI,Meta AI选择了Nvidia。与此同时,作为一组整体,这些模型占全球人工智能计算开源模型的三分之一

开源模型已逼近技术前沿,几乎无处不在。而英伟达,如你所知,今天,我们是当今世界上唯一一个运行人工智能每个领域的平台。这些人工智能模型中的每一个。在语言和生物学和计算机图形学,计算机视觉和语音。蛋白质和化学机器人。边缘或云,任何语言,Nvidia的架构都是可替代的,我们在所有这些方面都令人难以置信。这使我们能够以最低的成本提供最高的可靠性

因为当你建造这些系统时,正如我提到的,一万亿美元是。你必须完全有信心,你放下的万亿美元将被利用,将是高性能的,将是令人难以置信的成本效益,并具有使用寿命。

您可以看到您可以在NVIDIA上进行的基础设施投资,您可以完全放心地进行。如今,我们已证明,它是全球唯一一种无论在世界何处建设,都能让人充满信心的基础设施。你想把它放进去。你想把它放到预发布环境。我们对此感到非常高兴。你想把它放在任何有主权支持你的国家。我们现在就是。一个运行所有AI的计算平台

打开网易新闻 查看精彩图片

业务构成与市场扩展

现在说说我们的业务。开始显示我们的60%业务是超大规模,前五名超大规模。然而,即使在那五大超大规模云服务商之中,也有部分是其内部的AI资源消耗。像推荐系统这样的内部人工智能消费真正重要的工作是从表格、协作过滤和内容过滤的推荐系统转移过来。

它正朝着深度学习和大规模方向发展。搜索转向深度学习,大型语言模型,几乎所有这些不同的超大规模工作负载现在都在移动,转向NVIDIA GPU非常擅长的工作负载

但最重要的是,因为我们与每个人工智能实验室合作,因为我们与每个人工智能合作,我们加速了每个人工智能模型。我们与之合作的人工智能原住民的大型生态系统,我们可以将其带到云端,无论投资规模有多大,无论计算消耗的速度有多快。这代表了我们业务的60%

另一个40%到处都是。区域云,主权云,企业工业机器人。大型系统、超级计算系统、小型服务器、企业服务器。系统的数量令人难以置信,人工智能的多样性也是它的弹性。人工智能的覆盖范围是它的弹性。

毫无疑问,这不是一个应用程序技术。现在这是基本的。这绝对是一个新的计算平台转变

打开网易新闻 查看精彩图片

Blackwell架构与推理优化

那么,我们的任务就是继续推动技术进步。而我在去年提到的最重要的事情之一就是:去年是我们的推理年。我们倾尽了一切。我们冒了极大风险,在Hopper还处于巅峰、势头正劲的时候进行了彻底革新。

我们决定,Hopper架构——即每八个核心共享一个NVLink——必须提升到一个新的水平。我们完全重新构建了系统,完全分解了计算系统,并创建了NVLink 72。它的建造方式,制造方式,编程方式完全改变了。

Blackwell NVLink 72是一个巨大的赌注,对任何人来说都不容易。还有在座的许多伙伴,我要感谢你们所有人的辛勤工作。谢谢。NVLink七十二NV FP4,而不仅仅是精度FP4。

FP4是一个完全不同类型的张量核心和计算单元。我们现在已经证明,我们可以在不损失精度的情况下推断NV FP4。提高性能和能源效率。我们还能够使用NVFP4进行培训

所以NVLink七十二,NVFP四,生成器的发明,TensorRT-LLM,一大堆新算法。我们甚至搭建了一台超级计算机,用于优化内核以及整个软件栈。我们称之为DGX Cloud。我们投资了数十亿美元的超级计算能力,帮助我们创建内核,即制造的软件。有可能推断。

结果都在一起,人们告诉人们曾经告诉我,但Jensen推论是如此简单。推理是最难的。推理是终极难题。这一点也至关重要,因为它直接驱动你的收入。所以,这就是结果。

这是来自类似分析。这是有史以来最大,最全面的AI推理。你在左边看到的,在这一边。在这一边是token每瓦每瓦特的token很重要,因为根据定义,每个数据中心、每个工厂都受到功率限制。

一个千兆瓦的工厂永远不会变成两个。身体受到限制。原子定律,物理定律。所以,一个千兆瓦的数据中心,你要驱动的最大数量的token,这是生产,该工厂的产品。所以你想要那个。

你想让自己处在那条曲线的最高点,想多高就多高。这个,x轴是交互性推理速度,每个推理的速度。你推理得越快,当然,你可以更快地响应,但非常重要的是,你可以更快地推理,模型越大,你可以处理的上下文越多,你可以思考的token越多,这个轴与人工智能的智能是一样的

这就是人工智能的吞吐量,这就是人工智能的智能。通知。人工智能越智能,你的吞吐量就越低,这反而更有意义。你在想得更久,对吧?所以,这条轴代表速度,我稍后再回到这一点。这很重要。

打开网易新闻 查看精彩图片

Token经济学与AI工厂

这里就是我折磨你们的地方。但这件事太重要了。从现在开始,世界上的每一位CEO都会以我将要描述的方式研究他们的业务。因为这是你的。Token工厂。这就是你的AI工厂。这是你的收入。对此,今后毫无疑问。所以这就是吞吐量。这就是情报。对于给定的数据中心功率,每瓦性能更好,吞吐量越多,您可以生产的token就越多。

这一边是成本。请注意,NVIDIA是世界上性能最高的。对此没人会感到惊讶。他们会惊讶地发现,仅用一代时间,按照摩尔定律的预测,晶体管的数量就已翻了两番,即增长了五倍。摩尔定律可能会给我们带来一倍半的性能。你会期望H200,高出一倍半。没有人会期望高出35倍。我去年这个时候说过,Nvidia的Grace Blackwell,NVL 72,每瓦35倍。没有人相信我。

打开网易新闻 查看精彩图片

随后,一份半分析报告出炉,Dylan Patel也发表了一段引言。他指责我故意放水。他指责我故意放水。他说Jensen沙袋实际上是五十次,他没有错。他没说错。于是,我们的每token成本

我们的每token成本是全球最低的。你没法打败它。我之前就说过,如果架构选错了,就算它是免费的,也依然不够划算。而原因在于,无论发生什么情况,你都仍然需要建设一座千兆瓦级的数据中心

你仍然需要建造一座千兆瓦级的工厂。那个千兆瓦的工厂摊销了15年,那个千兆瓦的工厂大约是400亿美元。即使你什么都没穿,也要花400亿美元。你最好确保你把最好的计算机系统放在那东西上,这样你就可以了。有最好的token成本英伟达的算力成本处于世界级水平,目前几乎无人能及

而之所以如此,是因为极致。所以我很高兴他提到了我们。从前有个猴王,也就是齐天大圣。嗯,我们采取,我们采取我们所有的软件,正如我告诉你的,我们垂直整合,但我们水平开放

打开网易新闻 查看精彩图片

我们是横向开放的纵向整合。我们集成了我们所有的软件和技术,但是我们可以将其打包并集成到世界各地的推理服务提供商中。这些,这些公司发展得如此之快。他们长得好快啊。Fireworks,Together AI在这里一起。它们增长得如此之快,在过去的一年里增长了100倍

他们就是token工厂,对他们而言,工厂的效率、性能以及token的生产成本才是最重要的。这就是发生的事情。这是我们为他们更新的软件,还是同一个系统。而且请注意,他们的服务速度简直令人难以置信。

打开网易新闻 查看精彩图片

之前,在NVIDIA更新我们所有的算法和软件以及我们带来的所有技术之前,大约每秒700个token的平均值高出近5000,7倍。这就是极致代码设计的惊人力量

我早些时候提到过工厂的重要性。这就是工厂的重要性。您的数据中心,它曾经是文件的数据中心。现在它已经变成了一家token生成工厂。无论如何,你的工厂都是有限的。每个人都在寻找土地,电力和外壳。一旦你把它搭建起来,就会受到功率限制。

在这个功率有限的基础设施中,你最好确保你的推理,因为你知道推理是你的工作负载,token是你的新商品,计算是你的收入,你想要确保。该架构是尽可能优化。

未来,每一家云服务提供商、每一家计算机公司、每一家云计算公司、每一家人工智能公司,乃至所有企业,都将围绕这些领域的"token工厂效应"进行思考。这就是你未来的工厂。

而我知道这一点的原因,是因为在座的每一位都靠智慧驱动。而在未来,那项智能将会得到增强。顺便说一下,让我告诉你我们是怎么到这里的。十年前,二十六年的4月6日,我们推出了DGX-1世界上第一台电脑与第一代相连的八个Pascal GPU一台计算机中的170 teraflops,这是世界上第一台为AI研究人员设计的计算机。

通过Volta,我们引入了NVLink Switch十六个GPU以全带宽连接,作为一个巨型GPU运行。向前迈出了一大步,但模型尺寸仍在继续增长。数据中心需要成为一个单一的计算单元,因此Mellanox加入了NvidiaDGX A100

成为第一台结合了扩展和扩展架构的GPU超级计算机。NVLink 3用于扩展,ConnectX-6和Quantum InfiniBand用于扩展。然后Hopper第一个带有FP8 transformer引擎的GPU启动了生成AI时代NVLink 4,ConnectX-7,Bluefield-3 DPU,第二代Quantum InfiniBand,它彻底改变了计算。

你。Blackwell用NVLink 72 (NV连接的72个GPU) 重新定义了AI超级计算系统架构每秒130 TB。计算托盘集成了Blackwell GPU、Grace CPU、ConnectX-8和Bluefield-3。扩展在以太网的频谱上运行,具有三个扩展定律,即训练前,训练后和推理。而如今,智能体系统的算力需求仍在呈指数级增长

打开网易新闻 查看精彩图片

Vera Rubin架构发布

现在,Vera Rubin为agentic AI的每个阶段构建了架构,推进了计算的每个支柱,包括CPU,存储,网络和安全性。Vera Rubin NVLink七十二计算的3.6 exaflops每秒260 TB到所有NVLink带宽。推动智能体式人工智能时代发展的引擎。

打开网易新闻 查看精彩图片

Vera CPU机架STX Rack AI原生存储专为编排和代理工作负载而设计,采用Bluefield-4构建。利用Spectrum X共封装光学器件进行横向扩展,提高能效和弹性。

还有一个令人难以置信的新增加,Groq LPU机架,与Vera Rubin紧密相连。Groq的LPU的massive on chip SRAM,是已经非常快的Vera Rubin的token加速器加在一起35倍以上

"新的Vera Rubin平台: 七艘船"。Scale computers,一台革命性的人工智能超级计算机,用于人工智能。在短短十年内增加了4000万倍的计算

现在,在过去的好日子里,当我说Hopper时,我会举起芯片。那也太可爱了吧。这是Vera Rubin。当我们想得很……。

当我们想到Vera Rubin时,我们认为整个系统垂直集成,完全与软件集成,端到端扩展,优化为一个巨大的系统

之所以将其设计用于智能体系统,原因非常明确:对于智能体而言,其最重要的工作负载无疑就是由大语言模型进行的推理与思考

大型语言模型将会越来越庞大。它将更快地生成越来越多的token,从而能够更快地思考。但它也必须访问内存。它会很难记忆。KV缓存,结构化数据,cuDF,非结构化数据,cuVS。它将会对存储系统上的内存造成非常非常大的冲击,这就是我们重新发明存储系统的原因。

它也将使用工具。与人类不同,人类对速度较慢的计算机更宽容。人工智能希望工具尽可能快。这些工具,将来的web浏览器,也可能是云中的虚拟PC。这些PC必须尽可能快,而这些计算机必须尽可能快。

我们打造了一款全新的CPU,这款CPU专为极致的单线程性能而设计。令人难以置信的高数据输出,令人难以置信的数据处理和极端的能源效率。它是全球唯一一款采用LPDDR5内存的数据中心CPU,兼具卓越的单线程性能和无与伦比的每瓦性能。

所以我们就那样做了,让它能和其他这些机架配套使用。代理加工。所以,这就是了。这就是。

Grace Blackwell,没有Vera Rubin,它在哪里?就在这里。好吧,这就是Vera Rubin星系。注意,自从上次100%液体冷却后,所有的电缆都消失了。过去需要什么,过去需要什么。两天安装现在需要两个小时

打开网易新闻 查看精彩图片

难以置信。因此,制造周期时间将大幅缩短。这也是一台超级计算机,它被热水冷却,四十五度,这减轻了数据中心的压力,带走了所有的成本和所有用于冷却数据中心的能量,并使其可用于系统。这就是秘诀。

我们是目前全球唯一一家已成功构建第六代大规模交换系统的公司。这不是以太网,这不是InfiniBand,这是NVLink。这是第六代NVLink

要做到这一点难到离谱。很难做到时期。我为团队感到无比自豪。NVLink,完全液体冷却。这是全新的Groq系统。接下来我再给大家多介绍一点。

系统八个四核芯片。这是LPU 30,世界上从未见过。世界上见过的任何东西都是V1。这是第三代产品,目前我们已进入批量生产阶段。稍后我再详细跟您介绍。世界第一CPO Spectrum X交换机。这也已全面投产共封装光学器件。光学直接进入这个芯片,直接接口到硅。

打开网易新闻 查看精彩图片

电子被转化为光子,并直接连接到这个芯片。我们与台积电共同发明了这项工艺技术。目前只有我们还在生产线上使用它。它叫COUPE。这完全是革命性的。正在与Spectrum X进行全面生产

这是Vera系统每瓦性能是当今世界上任何CPU的两倍。它也在生产中。嗯,你知道吧,我们从来没想过会单独销售CPU。我们正在大量单独销售CPU。这无疑将成为我们一项规模达数十亿美元的业务

所以我对我们的CPU架构师非常非常满意。我们设计了一个革命性的CPU。这是CX-9。采用Vera CPU,Bluefield-4 STX,我们的新存储平台。

好的,这是四个,这些是机架,并且已连接。这些机架中的每一个,NVLink机架。这是我以前给你们看过的。这是一个超级重。它似乎每年都变得越来越重。因为我认为每年都有更多的电缆。

所以,这是NVLink机架。我们之所以采用这项技术,也是因为它确实如此。使用这些布线系统和结构化电缆搭建数据中心非常高效。所以我们决定为以太网做这件事。因此,这是在一个机架中256液冷节点的以太网,它还与这些令人难以置信的连接器连接。

打开网易新闻 查看精彩图片

你们想看吧。Rubin超级。这就是Rubin Ultra Compute节点。与水平滑动的Rubin不同,Rubin Ultra进入了一个全新的机架。它被称为Kyber,使我们能够在一个NVLink域中连接144个GPU

所以Kyber机架,我可以举起它,我敢肯定,但我不会。它很重。这是一个计算节点,它垂直滑入Kyber机架。这是它连接的地方。这是中平面Kyber机架,这四个顶部NVLink连接器滑入并连接到此。

而这就成为其中一个节点。这些机架中的每一个都是不同的计算节点。

这是令人惊奇的部分。这是中间平面和中间平面的背面,而不是布线系统,布线系统在我们可以驱动电缆,铜电缆的距离方面有其局限性。

我们现在有这个系统来连接144个GPU。这是新的NVLink。这也是垂直的,它连接在。进入背部的中板。计算机在前面,NVLink开关在后面,一台巨型计算机。好吧,这就是Rubin Ultra

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

产品路线图与演示插曲

正如我所提到的,正如我所提到的。我们把这个拿回去怎么样?我需要剩下的幻灯片。它下来了。好的,谢谢你,Jenny。这就是当你……时会发生的事。这就是不练习的结果。好吧,好的。所以你看见了你自己。慢慢来,别受伤。

你看到了,你看到了这张幻灯片,你知道,只在Nvidia的主题演讲中,你看到去年的幻灯片再次出现。原因是我只是想让你知道,去年我告诉你一些非常非常重要的事情,它是如此重要,值得再次告诉你。

这可能是人工智能工厂未来最重要的一张图表,世界上每一位首席执行官都将跟踪它,将非常深入地研究它。比这复杂得多。多维,但您将研究AI工厂的吞吐量和此token速度,即等功率(iso-power)的吞吐量token速度,因为这是您拥有的所有功能,工厂的吞吐量和token速度永远。

打开网易新闻 查看精彩图片

这种分析将直接导致你的收入。你今年所做的事情将在明年准确地显示为你的收入。这张图表就是它的全部。

我在垂直轴上说,在垂直轴上,谢谢你们,在垂直轴上是吞吐量,在水平轴上是token速率

今天,我要给你看这个。因为我们能够,因为我们现在能够提高token速度,并且因为模型大小正在增加,因为token长度,上下文长度,取决于不同应用程序用例的不同等级,继续从100,000个token输入长度增长到数百万个输入token长度在增长,输出token长度也在增长。于是,所有这些最终都相互作用。未来token的营销和定价

Token是新的大宗商品。与所有大宗商品一样,一旦达到拐点、走向成熟或步入成熟阶段,它就会进一步细分为不同的领域。高吞吐、低速度可用于免费tier。下一层可以是中层。更大的模型可能,更高的速度肯定,更大的输入上下文长度。这意味着不同的价格点。

从所有不同的服务来看,这一项是免费的。这是一个免费层级。第一档可以设定为每百万个token三美元。下一档可能是每百万个token六美元。你希望不断突破这一边界,因为模型越大、越智能,输入token的上下文长度越长、相关性越高,推理速度越快、延迟越低,你就能够构建和迭代出更加智能的人工智能模型

所以,这关乎更智能的AI模型。而当你拥有更智能的AI模型时,每一次点击都能让你提高出价。这是45美元。也许有一天,会推出一款高级版产品,为您提供更优质的服务,让您在关键业务路径上或进行长时间科研工作时,实现极高的token生成速率。每百万token150美元并不是一件事

那么,我们来翻译一下吧。假设你每天使用5000万个token作为研究人员,每百万个token150美元。结果表明,作为一个研究团队,根本不存在这么一回事。所以我们相信这就是未来。

这就是人工智能想要发展的方向。这就是它现在的样子。它必须从这里起步,才能确立自身的价值与实用性,并且不断改进、愈来愈好。未来,你将会看到大多数服务都会涵盖所有这些内容。

这是Hopper。Hopper开始了,我移动了图表。这是50。这是100。Hopper看起来是这样的。你原本会预期下一代的Hopper性能会有提升,但谁也没想到会提升得如此之多。这是Grace Blackwell。Grace Blackwell所做的事情就在你的免费层级范围内,就能极大地提升你的吞吐量。

然而。在您主要通过服务获利的地方,它将您的吞吐量提高了35倍。这和任何一家公司生产的产品没什么不同。等级越高,品质越高、性能越好、体积越小、容量越低。因此,它与其他任何企业并无不同。

打开网易新闻 查看精彩图片

所以现在我们可以将这一层增加35倍。并且我们推出了一整个全新等级。这是Grace Blackwell的好处,一个巨大的跳跃。Hopper。嗯,这就是我们正在做的。好吧,这很优雅。

好吧,好吧,让我重新设置,重新设置这个。这就是Vera Rubin。好吧。现在想一想,想一想在每一层,每一层,每一层都发生了什么,我们增加了吞吐量,在你的最高ASP和最有价值的细分市场的那一层,我们增加了十倍。那就是艰苦的工作。在这儿做到这一点实在太难了。

打开网易新闻 查看精彩图片

这是NVLink七十二的好处。这就是极低延迟带来的优势。这是极致代码设计的好处,我们可以转移整个。整个区域现已恢复。

从客户的角度来看,这意味着什么?最后,假设我要拿走所有这些,我只是,你知道,把它乘以假设我把我的25%力量用在自由层,25%我的力量用在中间层,我在高层的权力25%,在高级层的权力25%。我的数据中心只有1吉瓦。所以,我可以决定自己想要如何分配。

免费套餐让我能够吸引更多客户。这使我能够为我的市场服务。最有价值的客户。而这些因素的综合作用,也就是它们的乘积,基本上决定了你的收入水平——在这一简化示例中,假设Blackwell能够实现的收入是原来的五倍Vera Rubin产生五次。所以,Vera Rubin,你越早到那里越好。原因是你的token成本下降,吞吐量上升

打开网易新闻 查看精彩图片

NVIDIA与Groq合作

现在,但我们想要更多。我们想要更多。所以让我带你回到这个。这就像你一样,就像我告诉你的那样,这个吞吐量需要大量的flops

这种延迟和交互性需要巨大的带宽。计算机不喜欢大量的flops,大量的带宽,因为只有这么多的表面积。对于任何系统都有的芯片,因此优化高吞吐量和优化低延迟实际上是彼此的敌人。这就是我们与Groq合并时发生的事情。

好的,所以我们收购了Groq芯片的团队,并获得了这项技术的许可,我们现在一直在合作整合这个系统。这就是它的样子。

打开网易新闻 查看精彩图片

因此,在最有价值的层,在最有价值的层,我们现在将性能提高35倍。现在,这个非常简单的图表向您揭示了迄今为止NVIDIA在绝大多数工作负载中如此强大的原因。而原因就在于,在这一区域,吞吐量至关重要NVLink七十二是如此改变游戏规则

这正是正确的架构。甚至很难被击败,即使您添加了Groq。然而,如果你在这里扩展了这个图表,你说你想要的服务不是每秒400个token,而是每秒1,000个token,突然之间NVLink 72耗尽了蒸汽,根本无法到达那里。

我们只是没有足够的带宽。这就是Groq进入的地方。这就是当我们把它推出来时会发生的事情。它超越了。谢谢。甚至超出了NVLink 72所能做的极限。如果你那样做,就能将其转化为收入

相对于Blackwell,Vera Rubin是5倍。如果您的大部分工作负载是高吞吐量,我会坚持只100% Vera Rubin。如果你的很多工作负载想要编码和非常高价值的工程token生成,我会添加Groq

我会将Groq添加到我的总数据中心的25%。我的数据中心的其余部分都100% Vera Rubin。因此,这使您对如何将Groq添加到Vera Rubin并扩展其性能并进一步扩展其价值的感觉。这就是发生的事情。

非常,这是一个对比。Groq之所以对我如此有吸引力,是因为他们的计算系统,一个确定性的数据流处理器,它是静态编译的。它是编译器调度的,这意味着编译器计算出数据的时间,何时进行计算,计算和数据同时到达。

所有这些都在编译时静态地预先完成。并完全安排在软件中。没有动态调度。该架构设计有大量的SRAM。它只是为推理而设计的,这一个工作负载。现在,这一个工作量,事实证明,是人工智能工厂的工作量。随着世界继续增加它想要生成的超级智能token的高速token数量,这种集成的价值将变得更高。

这是你能看到的两个极端的处理器。一个芯片,500兆字节。一艘Vera Rubin芯片,一艘Rubin芯片288千兆字节。这将需要大量的Groq芯片才能保存Rubin的参数大小以及所有必须去的上下文,必须伴随它的KV缓存

因此,这限制了Groq真正进入主流的能力,直到我们有了一个好主意。如果我们借助名为Dynamo的软件将推理完全解耦会怎样呢?如果我们重新设计在管道中进行推理的方式会怎么样?我们可以将完全有意义的工作放在Vera Rubin上,然后卸载解码生成,低延迟,带宽有限的工作负载的一部分。

因此,我们联合,统一了两个极端差异的处理器,一个用于高吞吐量,一个用于低延迟。这仍然改变不了我们需要大量内存这一事实。所以Groq,我们只需要添加一大堆。

Groq芯片,它扩展了它的内存量,所以如果你能想象。在万亿参数模型中,我们必须将所有这些参数存储在Groq芯片中。然而,它位于NVIDIA Vera Rubin旁边,在那里我们可以保存处理所有这些代理AI系统所需的大量KV缓存

它基于这种聚合推理的理念。我们做预填充,这是最容易的部分,但我们也紧密集成解码decode的张力部分是在Nvidia的Vera Rubin上完成的,这需要大量的数学运算,而其中的前馈网络部分,decode部分完成,token生成部分是在Groq芯片上的Vera Rubin上完成的。他们两个在今天紧密耦合在一起工作,以太网有一个特殊的模式,以减少大约一半的延迟。

因此,这项能力使我们能够将这两个系统集成起来。我们运行Dynamo,这个不可思议的操作系统。在它之上的人工智能工厂系统,你会得到35倍的增长,35倍的增长,更不用说额外的新层次的推理性能,用于token生成,这是世界上从未见过的

所以这就是了。这是Groq.Vera Rubin系统,包括Groq,我要感谢为我们制造Groq LPU 30芯片的三星,他们正在启动。真的很感激,感谢你们。我们正在使用Groq芯片进行生产,您知道,我们将在下半年发货,可能大约是Q3时间

Groq LPXVera Rubin,你知道这有点难,很难想象还有更多的顾客。你知道,真正伟大的事情是Grace Blackwell的早期采样真的很复杂,因为NVLink 72的结合在一起,但Vera Rubin的采样进行得非常好

打开网易新闻 查看精彩图片

事实上,Satya,我想已经发短信说,第一个Vera Rubin机架已经在微软Azure上运行了。所以,我为他们感到超级兴奋。我们将继续启动这些东西。我们现在已经建立了一个可以生产数千台的供应链。

这些系统的一周,基本上是我们供应链中每月数千兆瓦的人工智能工厂。因此,我们将在推出GB 300机架的同时推出这些Vera Rubin机架。我们正处于满负荷生产中

Vera CPU取得了巨大的成功。其原因在于,人工智能在使用工具时需要CPU。而Vera CPU正是为这个最佳性能点而量身定制的。可信的下一代数据处理。Vera CPU非常理想Vera CPU plus Bluefield plus CX-9连接到Bluefield-4堆栈百分之百

世界上100%的存储行业正在加入我们这个系统。原因是他们看到的是完全一样的东西。存储系统将会承受巨大的压力。它会被狠狠打击,因为我们过去一直让人类来使用这些存储系统。我们过去是让人类使用SQL的。

现在我们将让AI使用这些存储系统。这将存储cuDF加速存储,cuVS加速存储,以及非常重要的。KV Cache。好吧,这就是Vera Rubin星系

打开网易新闻 查看精彩图片

性能飞跃总结

现在令人惊叹的是这一点。在短短两年的时间里,在一个千兆瓦的工厂里,在短短两年的时间里,在一个千兆瓦的工厂里,用我之前给你们看的数学,而摩尔定律会给我们几个步骤

我们会,你知道,把晶体管的数量乘以x因子。我们会把flops的数量分解为x。我们本来会把带宽数量进行因式分解。但是,借助这种架构,我们将进行token发行速度token生成速率从200万到7亿,350倍的增加

打开网易新闻 查看精彩图片

这就是,这就是极致协同设计的力量。这就是我所说的:我们在纵向进行整合与优化,同时又向横向开放,让所有人都能共享成果。这就是我们的路线图,非常简要。

Blackwell在这里,Oberon系统。以Rubin为例,我们有Oberon系统。我们总是向后兼容,所以如果你不想改变任何东西,只是继续通过新的架构,你可以这样做。旧系统,标准机架系统,Oberon仍然可用Oberon是铜的规模化扩展

有了Oberon,我们还可以使用光学缩放或对不起,光学缩放扩展到NVLink 576。所以有很多关于NVIDIA将铜放大或光学放大的讨论,我们将两者兼而有之。因此,我们将与Kyber进行NVLink 144,然后与Oberon进行NVLinkOberon,我们要去NVLink 72加上光学到NVLink 576

在下一代Rubin产品——Rubin Ultra中,我们推出了Rubin Ultra芯片,目前正处于流片阶段。我们有一个全新的芯片,LPU 35LPU 35将首次纳入Nvidia的NVFP4计算结构

再给你几个X因子提速。好的,这是Oberon NVLink 72光学放大,它使用Spectrum X6世界上第一个共封装光学,这一切都在生产中。来自这里的下一代。是Feynman吗?Feynman当然有一块新的GPU。它还有一个新的LPU,LPU 40,大步向上,令人难以置信,令人难以置信的新技术。

现在。将Nvidia和Groq团队的规模结合在一起,共同打造LPU 40。这将会太棒了。一款名为Rosa的新款CPU。Rosalind的缩写,BlueField-5,它将下一个CPU与下一个SuperNIC CX-10连接起来。我们会有Kyber。这是铜放大。我们也会有KyberCPO放大。因此,我们将首次同时采用铜互连和共封装光学技术进行规模化部署。

好吧。所以很多人一直在问,你知道,Jensen,铜还会很重要吗?答案是肯定的。Jensen,你打算扩大光学规模吗?是的。你打算扩大光学规模吗?是的。因此,对于我们生态系统中的每个人来说,我们需要更多的容量。而那才是真正关键所在。我们需要更多的铜产能。我们在光学方面需要更多的产能。我们需要更多的硅光精炼产能。这也正是我们一直与各位携手合作、为实现这一增长水平奠定基础的原因。

于是,Feynman将拥有这一切。让我看看是不是什么都没注意到。就这些。每一年,全新的架构。非常好。

打开网易新闻 查看精彩图片

NVIDIA DGX与Omniverse

不是。很快,NVIDIA从芯片公司变成了AI工厂公司或AI基础设施公司,AI计算公司,这些系统。现在我们正在建造整个人工智能工厂。有这么大的能量。那在这些人工智能工厂里被浪费掉了。

打开网易新闻 查看精彩图片

我们希望确保这些人工智能工厂以最好的方式聚集在一起。这些组件中的大多数永远不会相互接触。我们大多数技术供应商现在我们都彼此认识,但在过去我们从未见过面,直到数据中心。

那不可能发生。我们正在构建超级复杂的系统。所以,我们只能在别的地方进行线上见面。所以我们创造了Omniverse和OmniverseDSX World,一个平台,我们所有人都可以在这个平台上见面并设计这些千兆工厂,千兆,你知道,千兆瓦的人工智能工厂几乎都在系统中。

我们拥有用于机械,热,电气,网络的机架仿真系统,这些仿真系统已集成到我们所有令人难以置信的工具公司的生态系统合作伙伴中。我们还并网运行,以便能够……。相互交流,相互发送信息,以便我们进行调整。

电网电力和数据中心电力相应地节约能源。随后,在数据中心内部采用Max Q技术,以便我们能够动态地协调电力、冷却以及我们共同协作的各类技术,从而杜绝任何电力浪费,使系统以最优效率运行,实现海量的token吞吐量。我毫不怀疑,这里面有一个2的因子。在我们谈论的规模上,两个因素是巨大的

我们称之为NVIDIA DSX平台。就像我们所有的平台一样,它也分为硬件层、库层和生态层。就是完全一样的方式。让我们给你看看吧。历史上最大的基础设施建设正在进行中。世界正在竞相建立芯片、系统和人工智能工厂,每个月的延迟都会造成数十亿美元的收入损失

AI工厂的收入等于每瓦特对应的token数。因此,在功率受限的情况下,每一瓦未使用的电能都意味着收入的损失NVIDIA DSX是一个全数字孪生蓝图。设计和运营AI工厂,以实现最大的token吞吐量、弹性和能源效率

开发人员通过多个API进行连接,DSX-M用于物理,电气,热和网络仿真DSX Exchange用于AI工厂运营数据DSX Flex用于电网之间的安全动态电源管理。和DSX Max Q来动态最大化token吞吐量。它从NVIDIA和设备制造商的SIM就绪资产开始。

PTC Windchill PLM管理。基于模型的系统工程在Dassault Systems 3D Experience中完成。Jacobs将数据导入其定制的Omniverse应用,以最终确定设计方案。它已通过主流仿真工具的测试。使用Siemens Star CCM Plus进行外部散热。内部的Cadence Reality

适用于电气和NVIDIA网络模拟器DSX-Air的ETAP。并通过ProCore进行虚拟委托,以确保加快施工速度。当站点上线时,数字孪生体便成为运营主体。AI代理与DSX Max Q一起动态协调。Phaedrus Agent监督冷却和电气系统。

向Max Q发送信号,从而不断优化计算吞吐量和能量。Jade AI Agent解读实时电网数据。并动态调整功率。借助DSX,Nvidia和我们的合作伙伴生态系统正在全球范围内竞相构建AI基础设施。弹性效率和通过。太不可思议了,对吧?

好吧。Omniverse,Omniverse旨在从地球开始容纳世界的数字双胞胎。它将承载各种规模的数字孪生。因此,我们拥有这样一个卓越的合作伙伴生态系统。我想感谢大家。所有这些公司对我们来说都是全新的。就在几年前,我们还不认识你们中的很多人。现在,我们正在紧密合作,共同开发和制造世界上有史以来最大的计算机,并在全球范围内实现这一目标。因此,NVIDIA DSX是我们新的AI工厂平台

打开网易新闻 查看精彩图片

太空计算与OpenClaw

这次我只会花很少时间在这上面。然而,我们即将进入太空。我们已经去过太空了。Thor已通过辐射认证,我们目前应用于卫星领域。你从卫星上成像。将来,我们还将在太空中建立数据中心。

打开网易新闻 查看精彩图片

显然,这样做很复杂。我们正在与我们的合作伙伴合作开发一种名为Vera Rubin Space One的新计算机,它将进入太空并在太空中启动数据中心。现在,当然,在太空中。空间,没有传导,没有对流,只有辐射。因此,我们必须想出在太空中为这些系统散热的方法,不过我们有很多优秀的工程师正在攻关。

让我跟你说点新东西吧。所以嗯。Peter Stenberg在这里,他写了一个软件。它叫做OpenClaw。我不知道他是否意识到这将是多么成功,但重要性是深远的。OpenClaw是第一,它是人类历史上最受欢迎的开源项目,它在短短几周内就做到了。它超过了Linux在30年内的表现。而且它就是那么重要。就是这么重要。它会做得很好。这就是你全部要做的。好的,我们宣布支持这项倡议。让我简单过一下这个吧。

打开网易新闻 查看精彩图片

我想给你看几样东西。你只需输入这个。你把这段代码输入到控制台,它就会执行并输出结果。它找到了OpenClaw。它下载了它。它为你构建了一个AI代理。然后你可以告诉它你需要做的任何其他事情。

好吧,那我们来看一下。刚刚放弃的一个开源项目Andrej Karpathy刚刚推出了一个名为"研究是一个巨大的交易"的东西。你给一个AI智能体布置一项任务,然后去睡觉。它在一夜之间进行了100实验,保留了所有工作并杀死了没有的东西。我真的很喜欢我的产品能让那个人做到的事情。

打开网易新闻 查看精彩图片

他喜欢一个人,他告诉我他安装了它作为他六十岁的父亲,就像他们做啤酒一样,通过蓝牙将机器连接到OpenClaw。然后我们自动化了所有的东西,包括人们订购的整个东西。Lobster Cloud。成百上千的人在圣何塞排队等候龙虾。想用OpenClaw打造OpenClaw。每个人都在谈论OpenClaw,但什么是OpenClaw?信不信由你,已经有Claw骗局了。难以置信,难以置信。

现在,我以这种方式有效地说明了什么是OpenClaw。我说大家都能理解,但咱们还是想想到底发生了什么吧。什么是OpenClaw?它连接了一个时代,一个遗传系统。它会调用并连接到大型语言模型。

所以,它首先拥有的是它所管理的资源。它可以管理,可以访问工具,可以访问文件系统,可以访问大型语言模型。它能够进行调度。它能做到。cron作业能够分解一个问题,一个提示,你给它一步一步,一步一步。它可能会脱离并召集其他子代理。它有IO

你可以用任何你想要的方式和它说话。你可以向它挥手,它会理解你。你可以和任何你想要的模态进行交流。它会给你发消息。它会给你发短信、发邮件。所以它有IO。它还有什么别的吗?那么,基于这一点,你可以说,事实上,它就是一个操作系统。我只是使用相同的语法,我会描述一个操作系统。OpenClaw基本上开源了代理计算机的操作系统

打开网易新闻 查看精彩图片

这与Windows使我们能够创建个人计算机的方式没有什么不同。如今,OpenClaw让我们能够创建个人智能体。其含义令人难以置信。其含义令人难以置信。首先,收养这件事本身就有其意义,你知道的。

打开网易新闻 查看精彩图片

企业AI战略与NemoClaw

然而,最重要的是这一点。每一家公司现在都意识到每一家公司,每一家软件公司,每一家技术公司对于首席执行官来说,问题是,你的OpenClaw策略是什么?正如我们需要它都有一个Linux策略,我们都需要它有一个HTTP HTML策略,它启动了互联网。我们都需要有一个Kubernetes战略,这使得移动云成为可能。

当今世界上的每家公司都需要有一个OpenClaw战略,一个代理系统战略。这是新电脑。现在,这只是令人兴奋的部分。

这是OpenClaw之前的企业IT,你知道,我之前提到了企业IT的工作方式,以及它被称为数据中心的原因是因为这些大房间,这些大建筑物保存着数据,保存着人的文件,业务的结构化数据。

我们通过软件,它有工具,你知道,记录系统和各种工作流程被编入其中。而这就变成了人类会使用的工具。数字工人将使用。那是旧的IT行业,软件公司创建工具,保存文件,当然还有GSI的顾问,他们帮助公司弄清楚如何使用这些工具并集成这些工具。这些工具对于治理和安全性以及隐私和合规性而言非常有价值,所有这些仍然是真实的。

只是OpenClaw,OpenClaw。这就是它的样子。这是非凡的部分。每个IT公司,每个公司,每个SaaS公司,每个SaaS公司都将成为一个。一家AI公司。毫无疑问。每一家SaaS公司都将成为一家AI公司和一家Agentic服务公司

令人惊讶的是,你现在OpenClaw给了我们,给了这个行业在确切的时间需要的东西。就像Linux在确切的时间给了这个行业它所需要的一样,就像Kubernetes在正确的时间出现一样,就像HTML出现一样。它使整个行业有可能抓住这个开源堆栈并使用它做一些事情。just有一个问题。

代理系统。在公司网络中可以访问敏感信息,它可以执行代码,并且可以与外部通信。就大声说出来吧。好吧,想想吧。访问敏感信息、执行代码、与外部通信。当然,您可以访问员工信息,访问供应链,访问财务信息,敏感信息并将其发送出去。对外沟通。显然,这绝对不能被允许。

于是,我们便与Peter合作。我们召集了全球顶尖的安全和计算专家,并与Peter携手合作。使OpenClaw,OpenClaw,企业安全和企业私有能力。我们就把它叫做。这是我们的Nvidia OpenClaw参考——NemoClaw,它是OpenClaw的参考,它具有所有这些Agentic AI工具包

它的第一部分是我们称之为Open Shell的技术,它现在已经集成到OpenClaw中。现在它的企业准备好了。这个堆栈,这个堆栈有一个参考设计,我们称之为NemoClaw,NemoClaw,好吧,有一个参考堆栈,我们称之为NemoClaw。你可以下载它,玩它,你可以把它连接到世界上所有SaaS公司的策略引擎。你的政策引擎非常重要,非常有价值。

因此,策略引擎可以连接,NemoClaw或带有Open Shell的OpenClaw将能够执行该策略引擎。它有一个政策,它有一个网络护栏,它有一个隐私路由器。结果,我们可以。保护和防止Agentic在我们公司内部执行,并安全地执行。

我们还在代理系统中添加了几项内容。你想用自己的方式做的最重要的事情之一。Claw自定义Claw是让你可以有你的自定义模型。这是Nvidia的开放模型计划

我们现在处于AI模型的每个领域的前沿,无论是Nemotron,Cosmos世界基础模型,GR00T,人工通用机器人,人形机器人模型,自动驾驶汽车的Alpamayo,数字生物学的BioNeMo。二是人工智能物理学。我们在每一个领域都处于前沿。看看吧。世界是多元的。没有任何一种模式能够适用于所有行业。

开放模型是全球规模最大、最多样化的人工智能生态系统之一。跨越语言、视觉、生物学、物理学和自治系统的近300万个开放模型支持为专业领域构建AI。英伟达是开源人工智能领域最大的贡献者之一。我们构建并发布了六组开放前沿模型,以及相应的训练数据。为每个家庭推出了帮助开发人员定制和采用新排行榜顶部模型的食谱和框架。

打开网易新闻 查看精彩图片

在核心,Nemotron推理模型的语言,视觉。RAG。安全。演讲,你现在能听到我吗?是的,是的,我现在能听到你了。Cosmos物理人工智能世界生成和理解的前沿模型世界上第一个思考和推理的自动驾驶汽车AI通用机器人的基础模型生物学,化学和分子设计的开放模型

基于人工智能物理的两个用于天气和气候预报的模型。NVIDIA开放模型为研究人员和开发人员提供了构建和部署AI的基础

域。我们的模型,我们的模型。谢谢。我们的模型对你们所有人都很有价值,因为排名第一,它位于排行榜的顶部。这是世界级的。但最重要的是,这是因为我们不会放弃努力。我们将每天继续努力。Nemotron 3之后将是Nemotron 4Cosmos 1之后是Cosmos 2GR00T,GR00T在第二代。其中的每一个都将继续推进这些模式。纵向一体化,横向开放

这样我们就可以让每个人都加入人工智能革命。在研究、语音和世界模型、人工通用机器人、自动驾驶汽车和推理方面排名第一。

当然,其中最重要的一个,这是Nemotron 3和OpenClaw。这是前三名。世界上有三个最好的模型。好吧,我们在边境。这也是真的,我们想要创建基础模型,这样你们所有人都可以微调它,并将其训练成你需要的智能。这是Nemotron 3 Ultra。它将成为世界上有史以来最好的基础模型。这使我们能够帮助各国构建自己的主权人工智能。我们正在与许多不同的公司合作。

我今天宣布,我们今天要做的最令人兴奋的事情之一。是一个Nemotron Alliance。我们对此非常投入。

我们已投入数十亿美元用于人工智能基础设施建设,旨在打造支撑推理库等各类工具的核心AI引擎,同时开发能够赋能全球各行各业的AI模型。大型语言模型真的非常重要

当然,这很重要。人类智能怎么会不存在呢?但是,在全球不同的行业,在全球不同的国家,你需要有能力。定制你自己的模型和领域是模型领域的领域是完全不同于生物学、物理学、自动驾驶汽车、一般机器人,当然还有人类语言。我们有能力与每一个地区合作,打造属于该地区的领域专用、主权AI

今天,我们宣布一个联盟与我们合作,使Nemotron 4更加惊人。而那个联盟有一些令人惊叹的。公司在它:Black Forest Labs,成像公司Cursor,著名的编码公司。我们使用大量的it,LangChain,数十亿次下载来创建自定义代理。Mistral AIArthur AI提到的,我想他在这里。难以置信,难以置信的公司,PerplexityPerplexity计算机

绝对可以使用。大家都用它。太好了。来自印度Sarvam AI的多模态代理系统,Reflection AISarvamMira Murati的实验室,令人难以置信的公司加入我们。谢谢你。

我说,我说世界上每个企业公司,每个软件公司都需要一个代理系统,需要一个代理策略。你需要有一个OpenClaw策略,他们都同意。他们都在与我们合作,整合Nemo、NemoClaw参考设计、Nvidia Agentic AI工具包,当然还有我们所有的开放模型。一个接一个的公司,有这么多。而我们正与各位携手合作。我真的很感激这一点。

打开网易新闻 查看精彩图片

企业IT复兴与具身智能

而这一刻,就是我们的时刻。这是一次重塑。这是一种复兴,一种企业IT的复兴。从一个2万亿美元的行业。这将成为一个价值数万亿美元的行业,不仅为人们提供使用的工具,还提供专门从事非常特殊领域的代理商,您是我们可以租用的专家。

我完全可以想象,在未来,我们公司的每一位工程师都需要一个年度token预算。他们每年仅基本工资就能赚到几十万美元。我要给他们可能的一半作为token,这样他们就可以放大十倍。当然会啊。

它如今已成为硅谷的招聘工具之一。我的任务会附带多少个token?其原因非常明确:凡是能够访问token的工程师,工作效率都会更高。而那些token,正如您所知,将由我们与各位合作伙伴共同打造的人工智能工厂来生成。

如今每一家企业级公司都建立在文件系统和数据中心之上。未来每一家软件公司都将是代理型组织,并且会发行自己的token。他们的工程师的用户,他们将成为所有客户的token制造商OpenClaw事件,OpenClaw事件不可低估。这件事的重要性堪比HTML。这件事的重要性堪比Linux

我们现在有一个世界级的开放代理框架,我们所有人都可以用它来构建我们的OpenClaw策略。我们创建了一个参考设计,我们称之为NemoClawNemoClaw,你们所有人都可以使用它是优化的,它的性能,它是安全的

说到AgentAgent,如你所知,感知,推理和行动。我今天谈到的世界上大多数Agent都是数字Agent。他们在数字世界中行动。他们推理,他们编写软件。这一切都是数字化的,但我们也一直在研究物理体现的Agent。我们称之为机器人。他们需要的AI是物理AI。我们这里有一些重要的公告。我要去。走过其中的几个。

这里110机器人,几乎世界上每一家公司。我想不出一个正在建造机器人的人正在与NVIDIA合作。我们有三台计算机,训练计算机,合成数据生成和模拟计算机,当然还有位于机器人内部的机器人计算机。我们拥有完成这项工作所需的所有软件栈。人工智能模型来帮助您。

所有这些都融入了世界各地的生态系统,我们所有的合作伙伴,从西门子到Cadence,世界各地令人难以置信的合作伙伴。今天,我们宣布了一大批新合作伙伴。

正如您所知,我们长期以来一直在研发自动驾驶汽车自动驾驶汽车的聊天GPT时刻已经到来。我们现在知道我们可以成功地自动驾驶汽车。今天,我们宣布了Nvidia的robo taxi的四个新合作伙伴。准备平台。比亚迪、现代、日产、吉利,每年总共制造1800万辆汽车,加入我们之前的合作伙伴梅赛德斯、丰田、通用汽车,未来机器人出租车的数量将是令人难以置信的。

同时,我们还宣布与Uber达成一项重大合作。我们将在多个城市进行部署。并将这些robo taxi就绪的车辆连接到他们的网络中,以及一大堆新车。我们有ABB、Universal Robotics、Kuka等众多机器人公司,我们正在与他们合作,将我们的物理人工智能模型集成到仿真系统中,以便我们可以将这些机器人部署到各地的生产线中。

我们这里有卡特彼勒。我们这里甚至有T-Mobile。原因是在未来,无线电的无线电塔曾经是无线电塔,将成为Nvidia Aerial AI RAN。因此,这将是一个机器人无线电塔,这意味着它可以推理交通,找出如何调整其波束形成,以便它可以节省尽可能多的能量,并尽可能提高保真度。

这里有这么多类人机器人,不过我最喜欢的,我最喜欢的,就属它了。作为一个迪士尼机器人,你知道吗?要不这样吧?让我给你看一些视频。

打开网易新闻 查看精彩图片

机器人演示视频

让我们先看看这个。首次在全球范围内大规模推出物理AI: 自动驾驶汽车。借助Nvidia Alpamayo,车辆现在具有推理功能,可帮助它们在各种情况下安全智能地运行。我们要求汽车叙述它的行动。

打开网易新闻 查看精彩图片

我正向右变道,以便按照我的路线行驶。解释其在做出决策时的思考过程。有一对。请遵照指示。嘿,梅赛德斯,能快一点吗?加快速度。这是物理AI和机器人的时代

在世界各地,开发人员正在制造各种类型的机器人。但是现实世界是多种多样的,不可预测的,充满了边缘情况现实世界的数据永远不足以训练每个场景。我们需要生成的数据。机器人仿真计算。开发人员预培训。互联网上的模型缩放视频和人体演示,并评估模型性能,为后期培训做好准备。

使用经典和神经模拟,他们生成大量的合成数据并大规模训练策略。为了加速开发人员,Nvidia构建了用于机器人培训、评估和模拟的开源Isaac LabNewton用于可扩展和GPU加速的差分物理仿真。用于神经模拟的Cosmos世界模型。并将用于机器人推理和动作生成的开放机器人基础模型GR00T

有了充足的算力,各地的开发者正在弥合物理世界中的AI数据缺口Peritas AI训练他们的手术室助理角色。Isaac Lab将他们的数据与Nvidia Cosmos世界模型相乘。Skild AI使用Isaac Lab和Cosmos来生成训练后数据。Skild AI大脑

他们使用强化学习来强化数千种变化的模型。Figure AI使用Isaac Lab来训练全身控制和操作策略。Hexagon机器人公司使用Isaac Lab进行训练和数据生成。在精细的微调GR00T模型中。迪士尼研究使用他们在Newton和Isaac Lab的Cosmos物理模拟器来训练策略。

在每一个宇宙中。女士们先生们,Olaf。是吗?牛顿定律有效Omniverse可以工作Olaf。你好吗?我知道,因为我就是给你那台电脑的人。Jensen。那是什么?嗯,它在你的肚子里呢。那一定会很精彩。你还将学习如何在Omniverse中行走

这比骑在戒指上凝视要好得多。正是由于我们与迪士尼和DeepMind联合开发的、基于Nvidia Warp并使用Newton求解器的物理引擎,才使得你能够适应物理世界。看看那个吧。这就是你的聪明之处。我是雪人,不是雪豹。你能想象得到吗?

打开网易新闻 查看精彩图片

迪士尼乐园的未来,所有这些,所有这些机器人,所有这些四处游荡的角色。哦,你知道,我不得不承认,我以为你会更高。说实话,我从来没见过这么矮的雪人。不是。嘿,这样吧。你想帮我吗?万岁。

打开网易新闻 查看精彩图片

好吧,照例:我总爱用一句话收尾:"我刚才说过的,就是我要说的全部。"

我们谈了推理的新纪元——它不再是后台任务,而是收入引擎; 我们谈了人工智能工厂——它不是数据中心,而是代币铸造厂; 我们谈了开放式智能体革命——OpenClaw不是工具,是新一代操作系统的开源宣言; 我们更谈了具身智能——当机器人在迪士尼乐园里和你握手、调侃身高,物理世界已正式接入AI协议栈

但今天——我们不独自谢幕。让我们请几位"朋友",一起关掉这场模拟。

打开网易新闻 查看精彩图片

正在终止仿真……模拟已关闭。你好?有人在吗?

——没错,这就是GTC主题演讲的经典句式:"Jensen映射完成。"

工厂已通电,智能体正学开车,所有模块正在解耦、重组、加速。我们从CNN时代看见的突破,今天已在NVLink 72上跑出4000万倍的吞吐量推理,已成为现实;机器人,正为AI而生;而此刻,请大声喊出你们需要的——更多TokenAI工程师,全体就位

这,就是"五层蛋糕"的终极时刻—— 当数据丢失?我们用计算生成; 当模型卡顿?我们用协同设计突破; 当世界需要答案?我们交付可信赖的智能体

欢迎来到GTC 2026! 这不仅是一场大会——这是人工智能工业革命的开工典礼

谢谢大家!

*本实录为快处理抢鲜阅读版本,最终以官方发布版本为准。