打开网易新闻 查看精彩图片

出品|网易科技《态度》栏目

作者|崔玉贤

编辑|丁广胜

今天,黄仁勋在CES2025开幕式上进行了首个演讲,也是其今年的首场演讲,这是一场关于“AI信仰”的演讲,备受瞩目。

依旧是黑色皮夹克,只是相比以往更加闪亮,黄仁勋开玩笑称,毕竟是在拉斯维加斯嘛。演讲过程中,全新的Grace Blackwell NVLink72在黄仁勋手中变成了巨大盾牌,皮衣黄摇身一变升级为美国队长。

打开网易新闻 查看精彩图片

2025年开年,黄仁勋就向行业扔下几枚炸弹:发布首个采用Blackwell架构的RTX 50系列显卡;推出新一代DLSS 4技术;发布首个生成式世界基础模型Cosmos;目标建成Grace Blackwell NVLink72的巨型芯;宣布与一系列车厂展开合作,包括丰田、小米、理想、极氪以及比亚迪等等。

打开网易新闻 查看精彩图片

网易科技《态度》栏目总结了黄仁勋演讲中发布的重要内容以及行业观点:

1、新一代Blackwell架构的RTX 50系列显卡发布:RTX 5070定价549美元,RTX 5070 Ti定价749美元,RTX 5080定价999美元,RTX 5090定价1999美元。

打开网易新闻 查看精彩图片

基于Blackwell 架构的 RTX 50系列拥有920亿个晶体管,4000 TOPS,4个AI处理单元,性能是上一代的三倍。

2、新一代 DLSS 4技术发布, DLSS 4首次引入了多帧生成技术,可以用 AI 为每个渲染帧生成三帧。当它与 DLSS 技术套件协同工作,可以实现传统渲染8倍的性能,同时通过 NVIDIA Reflex 技术保持快速响应能力。

3、英伟达拥有多种计算网络系统,例如NVLink 36和NVLink 72,能够满足全球几乎所有数据中心的需求,目前在约45家工厂生产。

4、英伟达的目标是创建一个名为Grace Blackwell NVLink72的巨型芯片,该芯片将使用72个Blackwell GPU,性能超越世界上最快的超级计算机。

5、推出首个生成式世界基础模型Cosmos,这是一种旨在理解现实世界的基础模型,该模型将采用开放授权。

打开网易新闻 查看精彩图片

6、英伟达与丰田达成合作,开发下一代自动驾驶汽车。同时宣布正在与中国车厂展开合作,比如比亚迪、理想、小米、极氪等。

7、通用机器人的ChatGPT时刻即将到来,标志着通用机器人技术的重大进步。

8、Blackwell芯片是人类历史上最大的单芯片;该系统的最终目标是增强我们在技术和创新方面的能力和体验。

9、机器人的未来取决于创造一个有效的世界模型,这一模型不仅仅局限于语言理解,还要融入物理动态,这个世界模型必须要理解世界的语言,必须要理解物理动力学,比如重力、摩擦和惯性,必须理解几何和空间关系,必须理解因果关系。

10、未来每家公司的 IT 部门都会像 AI Agent(智能体)的人力资源部门。人工智能智能体可能是下一个机器人行业,很可能是一个价值数万亿美元的机会。

打开网易新闻 查看精彩图片

以下为黄仁勋2025CES演讲速记内容(由AI整理翻译而成,人工进行校对):

欢迎来到CES,你们对来到拉斯维加斯感到兴奋吗?你喜欢我的夹克吗?我想我会从余凯杰(Gary) 夏皮罗走另一条路。毕竟我在拉斯维加斯。如果呢?如果这行不通,如果你们都反对,那就习惯吧。

女士们先生们,欢迎来到英伟达。你的洞察力,我们的数字孪生体,他在这里所拥有的一切都是由AI生成的。这是一段不平凡的旅程,不平凡的一年。而且,它始于1993年。使用NV 1。我们想要制造能够做普通电脑无法做的事情的电脑,而Mv使你的电脑中有一个游戏机成为可能。

我们的编程架构被称为Uda,直到不久之后才有了字母C,但是Uda统一设备架构和Uda的第一个开发人员以及我参与开发的第一个应用程序是世嘉的虚拟战斗机。六年后,我们在1999年发明了可编程GPU,并开始了20多年令人难以置信的GPU处理器的惊人进步。它使现代计算机图形学成为可能。

30年后,世嘉的虚拟飞行,完全电影化。这是即将到来的新的虚拟战斗机项目。我就是等不及了。绝对不可思议。六年之后,也就是在1999年之后的六年,我们发明了CUDA,这样我们就可以解释或表达我们的GPU的可编程性,从而获得丰富的算法集,从而从中受益。CUDA最初很难解释,花了几年时间。实际上,大约花了六年时间。

大约六年之后,2012年,Alex kshevsky Ilia susver和Jeff Hinton发现了kuuda,用它来处理Alexnet,剩下的就是历史了。自从感知AI开始以来,AI一直以惊人的速度发展,我们现在可以理解图像、文字和声音来生成AI。我们可以生成图像、文本和声音。现在是能够感知、推理、计划和行动的代理AI。然后是下一阶段,其中一些我们今晚将讨论,即物理AI 2012。

现在,神奇地在2018年,发生了一件非常不可思议的事情。谷歌的变形金刚以Bert的身份发布,AI的世界真正起飞了。如你所知,变形金刚完全改变了人工智能的格局。事实上,它完全改变了计算的格局。我们正确地认识到,AI不仅仅是一个具有新商业机会的新应用程序。但更重要的是,AI机器学习由变压器启用,将从根本上改变计算工作的方式。

今天,计算在每一层都发生了革命性的变化,从运行在CPU上的手动编码指令到创建人类使用的软件工具。我们现在有了创建和优化在GPU上处理并创建人工智能的神经网络的机器学习。技术堆栈的每一层都已完全改变。

仅仅12年就发生了令人难以置信的转变。现在我们可以理解几乎任何模态的信息。你肯定见过文字、图像、声音之类的东西。但我们不仅可以理解这些,我们可以理解氨基酸,我们可以理解物理学,我们可以理解它们,我们可以翻译它们并生成它们。应用程序是完全无穷无尽的。

实际上,你在那里看到的几乎任何AI应用程序,我从什么模态中学到的输入是什么模态的信息翻译成什么模态,生成的信息是什么模态。如果你问这三个基本问题,几乎每一个应用程序都可以被推断出来。因此,当您看到一个又一个以AI驱动AI原生为核心的应用程序时,这个基本概念就在那里。

机器学习已经改变了每个应用程序的构建方式、计算方式以及未来的可能性。GPUs gforce在很多方面都很好,所有这些与AI有关的都是GeForce建造的房子,GeForce使AI能够接触到大众。现在,AI正在回归GeForce。没有AI,你无法做很多事情。现在让我给你看一些。

这就是真正的计算机图形。

没有计算机图形研究员?没有哪个计算机科学家会告诉你,在这一点上我们可以光线追踪每一个像素。光线跟踪是光的模拟。你看到的几何图形数量绝对疯狂。如果没有人工智能,这是不可能的。我们做了两件基本的事情。当然,我们使用可编程的着色和光线追踪加速度来产生令人难以置信的美丽像素。

但是,我们必须人工智能条件,受那个像素的控制,才能生成一大堆其他像素。它不仅能够在空间上生成其他像素,因为它知道颜色应该是什么,它已经在英伟达的超级计算机上训练过。所以在GPU上运行的神经网络可以推断和预测我们没有渲染的像素?我们不仅可以这样做,它被称为DLSS。最新一代的DLSS还可以生成超越帧的内容。

它可以预测未来,为我们计算的每一帧额外生成三帧。你所看到的,如果我们只说你所看到的四帧,因为我们将渲染一帧并生成三帧。如果我说四帧全高清为4k,即3300万像素左右,我们只计算了两千三百万像素。我们可以使用可编程着色器和光线追踪引擎进行计算,计算200万像素并让AI预测所有其他33个像素,这绝对是一个奇迹。

因此,我们能够呈现令人难以置信的高性能,因为AI所做的计算量要少得多。当然,需要大量的培训才能产生这种效果。但是一旦你训练了它,生成就非常高效。所以这是人工智能令人难以置信的能力之一。这就是为什么有这么多令人惊奇的事情正在发生。我们使用了GeForce来启用人工智能,现在人工智能正在彻底改变GeForce。今天,我们宣布我们的下一代,RTX布莱克威尔家族。让我们来看看。

这是我们全新的GeForce RTX系列。Blackwell架构,GPU只是一只野兽,拥有920亿个晶体管,4000个TOPS,4 petaflops的AI,比上一代Ada高出三倍。并且我们需要所有这些来生成我展示给你的像素,380射线追踪teraflops,这样我们就可以为我们需要计算的像素计算

当然,125个着色器teraflops,实际上有一个并发的着色器teraflops以及一个性能相等的整数单元,所以两个双着色器,一个用于浮点,一个用于整数G7内存,从每秒微米1.8 TB,是我们上一代的性能的两倍。我们现在能够将AI工作负载与计算机图形工作负载混合在一起。这一代的惊人之处之一是可编程着色器现在也能够处理神经网络。

所以着色器能够携带这些神经网络。因此,我们发明了神经纹理压缩和神经材料着色。因此,你会得到这些惊人美丽的图像,这些图像只有通过使用AI来学习纹理和压缩算法才能实现,因此会得到非凡的效果。好的,这是一架全新的RTX Blackwell 59。现在,即使是机械设计也是一个奇迹。看看这个,它有两个风扇。

所以问题是,显卡在哪里?真的有这么大吗?电压调节设计是最先进的。令人难以置信的设计。工程团队做得很好。

好的,这就是速度和反馈。那么它的比较呢?好的,这是RTX 4090,它是1599美元。这是你可能做的最好的投资之一。你把它带回家,在你价值10000美元的个人电脑娱乐指挥中心,对吗?

当你离开时,你会锁定它,这是现代家庭影院。这是完美的感知。现在以1500美元,99美分,你可以升级它并将其涡轮增压。好吧,现在有了布莱克威尔家族 。

我们成功地将这些巨大的性能GPU放进了一台笔记本电脑。这是一台适用于1299的50,70笔记本电脑。

没有人工智能你是做不到的。原因是因为我们使用特斯拉内核的像素生成了大部分像素。

因此,我们只对需要的像素进行光线追踪,并使用我们拥有的所有其他像素进行人工智能生成,因此,能源效率的数量就在图表之外。计算机图形学的未来是神经渲染,即人工智能和计算机图形学的融合。真正令人惊奇的是这是一个令人惊讶的动力学基调。

GeForce给世界带来了AI,民主化了AI。现在AI回来了,彻底改变了geforce,让我们谈谈人工智能。

这真的是办公室。这就是英伟达的总部。让我们谈谈AI。这个行业正在追逐并竞相实现规模智能、人工智能,而规模法则是一个强大的模型。这是一种经验法则,已经被研究人员和行业经过几代人的观察和证明。

而缩放定律表明,你拥有的数据越多,你拥有的训练数据就越多,你拥有的模型就越大,你应用的计算就越多,因此,你的模型就会变得更有效或更有能力。因此,比例定律仍在继续。

真正令人惊叹的是,现在我们正在朝着互联网的方向前进,当然,互联网每年产生的数据量是去年的两倍。我认为在接下来的几年里,人类将会产生更多的数据,比人类从一开始就产生的数据还要多。因此,我们仍在产生巨大的数据量,并且它正在多模态视频、图像和声音。所有这些数据都可以用来训练基础知识,即AI的基础知识。

但实际上,现在还出现了另外两个缩放定律,这有点直观。缩放定律,训练后的缩放定律使用技术,如强化学习、人类反馈等技术。基本上,AI产生并生成答案。基于人类的查询,人类当然会给出反馈。这比这复杂得多。

但是具有相当数量的高质量提示的强化学习系统使AI不断完善其技能。它可以针对特定领域微调其技能。它可以更好地解决数学问题,更擅长推理等等。因此,这基本上就像在你毕业后有一位导师或教练给你反馈一样。

因此,你得到了测试,得到了反馈,你提高了自己。我们也有强化学习的人工反馈,并且我们有合成数据生成。如果你愿意的话,这些技巧很类似于自我练习,你知道,一个特定问题的答案,你继续尝试,直到你做对了。因此,一个AI可能会面临一个非常复杂和困难的问题,这个问题在功能上是可验证的。

并且有一个我们理解的答案,也许是证明一个定理,也许是解决一个几何问题。因此,这些问题将导致AI产生答案。使用强化学习,你会学习如何提高自己。这就是所谓的岗位培训。岗位培训需要大量的计算,但最终结果产生了令人难以置信的模型。我们现在有了第三个标度定律,这第三个标度定律必须处理所谓的测试时间标度。

测试时间扩展基本上是在你被使用时,当你使用AI时。AI现在能够应用不同的资源分配,而不是改进其参数。

现在,它专注于决定使用多少计算量来产生它想要产生的答案。推理是思考这个问题的一种方式。长时间思考是一种思考这个问题的方式,而不是直接推理或一次性答案,你可能会对此进行推理。你可以把问题分成多个步骤。

你可能会产生多个想法,并评估你的AI系统将评估你应该产生的想法中哪一个是最好的。也许它一步一步地解决问题,以此类推。所以现在测试时间缩放已被证明非常有效。你正在观察这一系列的技术,所有这些缩放规律都随着我们看到令人难以置信的成就从ChatGPT到零,从1到0到3而出现。

现在是Gemini Pro,所有这些系统都在逐步经历预培训到培训后,测试时间缩放的旅程。嗯,我们所需的计算量当然是令人难以置信的。我们希望,事实上,我们希望社会有能力扩展计算量,以产生越来越多新颖和更好的智能。

当然,智能是我们拥有的最有价值的资产,它可以应用于解决许多非常具有挑战性的问题。因此,缩放法推动了对英伟达的巨大需求。计算正在推动对这种我们称之为Blackwell的令人难以置信的芯片的巨大需求。让我们来看看布莱克威尔。好吧,黑人财富正在充分生产。它看起来像什么,令人难以置信。首先,现在每个云服务提供商都有一些系统启动并运行。

我们这里有大约1515,1515的系统,对不起,15个计算机制造商。它正在制作大约200种不同的Skus,200种不同的配置。它们是液冷的,气冷式的x86英伟达灰色CPU版本,NVLink 36 x两个NVLink 72x一个完全不同类型的系统,这样我们就可以容纳世界上几乎每个数据中心。

虽然这些系统目前在大约45个工厂中制造,但它告诉你人工智能的普及程度以及该行业在这种新计算模型中的人工智能程度。好吧,我们如此努力的原因是因为我们需要更多的计算。

这是GB 200 vlink 72,重1.5吨,600000个零件,大约相当于20辆车,1212、120千瓦。它后面有一根脊柱,将所有这些GPU连接在一起。2英里的铜电缆,5000根电缆。

这是在世界各地的45个工厂制造的。我们制造它们,我们用液体冷却它们,我们测试它们,我们拆解它们,将它们的部件运送到数据中心,因为它重1.5吨,我们在数据中心外重新组装并安装它们。

制造是疯狂的,但所有这一切的目标是因为缩放定律正在推动计算如此努力,以至于这种计算水平,Blackwell在上一代产品中,每瓦性能提高了4倍,每瓦性能提高了4倍,每美元性能提高了4倍。三倍,基本上说,在一代人中,我们将训练这些模型的成本降低了三倍。或者,如果您想将模型的尺寸增加三倍,则成本大致相同。

但重要的是这个。这些正在生成代币,当我们将来使用ChatGPT或使用双子座或手机时,这些代币将被我们所有人使用。几乎所有这些应用程序都将消耗这些AI代币。这些AI代币是由这些系统生成的。每个数据中心都受到电力的限制。

因此,如果Blackwell的每瓦perv是我们上一代产品的四倍,那么数据中心可以产生的收入,可以产生的业务量将增加四倍。所以这些AI工厂系统今天真的是工厂。现在,这一切的目标都是为了能够创造出一个巨大的芯片。我们需要的计算量真的非常惊人。这基本上是一个巨大的芯片。

它可能需要大小的三到四倍。但这里基本上是72个布莱克威尔GPU或144个死亡?这个芯片是1.4 exaflops,世界上最大、最快的超级计算机。直到最近,这台整个房间的超级计算机才实现了exafloop。

加上这是AI浮点性能的1.4个exafloops。它有14 TB的记忆。但令人惊奇的是。内存带宽为每秒1.2 PB。这基本上就是现在正在发生的整个互联网流量。全世界的互联网流量都在这些芯片上处理,好吗?我们总共有130万亿个晶体管,2592个CPU核心,以及大量的网络。

我们创建andvlink的原因,企业界正在发生的最重要的事情之一是agentic AI。Agentic AI基本上是测试时间缩放的一个完美例子。

AI是一个模型系统。其中一些是理解,与客户互动,与用户互动。

其中一些可能是检索信息,从存储器中检索信息,像破布一样的语义AI系统,也许它正在上网,也许它正在研究pdf文件,所以它可能正在使用工具,可能正在使用计算器,它可能正在使用生成式AI来生成图表等。

接受你提出的问题,逐步分解,并通过所有这些不同的模型进行迭代,以便将来回复客户,以便AI做出回应,它曾经是一个问题。答案开始在未来喷出。你问一个问题,一大堆模型将在后台工作。

因此,测试时间的扩展,用于推理的计算量将会通过屋顶,将会通过屋顶,因为我们想要更好的答案。好吧,为了帮助行业构建真正的AI,我们的上市并不是直接面向企业客户。我们走向市场的方式是与It生态系统中的软件开发人员合作,整合我们的技术以实现新的功能。

就像我们对CUDA库所做的那样,我们现在想用AI库来做这件事。就像过去的计算模型有处理计算机图形、线性代数或未来流体动力学的api一样,在这些加速库的基础上,代码加速库将有AI库。我们创造了三件事来帮助生态系统构建agentic AI。英伟达的Nims本质上是AI微服务,全部打包起来。

这需要所有这些非常复杂的CUDA软件CDA,DNN切割列表,张量rtlm或Triton,或所有这些不同的非常复杂的软件。以及模型本身,我们将其打包,优化,放入容器中。你可以把它带到你喜欢的地方。

所以我们有视觉模型,理解语言模型,语音模型,动画模型,数字生物学模型。我们为物理AI推出了一些令人兴奋的新模型。这些AI模型可以在每个云中运行,因为英伟达的GP现在在每个云中都可用。它在每个OEM都可用。

因此,您可以真正地利用这些肌肉,将其集成到您的软件包中,创建以节奏运行的AI代理,或者可能有服务现在的代理,或者他们可能是Sap代理,他们可以将其部署到客户并在客户想要运行软件的任何地方运行它。下一层是我们所说的Nvidia Nemo。

Nemo本质上是一个数字化的员工入职和培训评估系统。在未来,这些AI代理人本质上是数字化的劳动力,与你的员工一起工作,代表你做事。因此,您将这些专门代理带入这些特殊代理的方式。进入你的公司就是像你雇用一名员工一样雇用他们。

因此,我们有不同的库来帮助这些a I代理接受公司语言类型的培训。也许这个词汇对你的公司来说是独一无二的。业务流程不同。你工作的方式与众不同。所以你可以给他们举例说明工作产品应该是什么样子。

他们会尝试生成反馈,你会给出反馈,然后你会评估它们,以此类推,这样你就会看到护栏,你说这些是你不允许做的事情。这些是你不能说的话。我们甚至允许他们获取某些信息。

好的,所以整个管道数字员工管道被称为Nemo。在很多方面,每家公司的It部门都将成为AI代理商的人力资源部门,未来AI代理商的未来将管理今天。他们管理和维护未来来自It行业的大量软件,他们将在船上保持没有培育,并改进大量数字代理并将其提供给公司使用。

因此,你的It部门将变得有点像AI代理HR。最重要的是,我们提供了一大堆我们的生态系统可以利用的蓝图。所有这些都是完全开源的。所以你可以拿走它并修改蓝图。我们有各种不同类型代理商的蓝图。好的,今天我们还宣布我们正在做一些非常酷而且我认为非常聪明的事情。我们正在宣布基于lalama的全系列模型,Nvidia Lama nemotron语言基础模型。

LMA 3.1从Meta下载650000次类似的东西,它已经衍生并变成了其他模型。大约60000种其他不同的模型。这是每个企业和每个行业都被激活开始研究AI的独特原因。嗯,我们所做的事情是意识到美洲驼模型确实可以更好,微调以适应企业使用。

因此,我们利用我们的专业知识和能力进行了微调,并将其变成了美洲驼的开放模型套件。有一些小的响应时间非常非常快,非常小。他们的汤,我们称之为超级美洲驼,它们基本上是你的主流模型或超级模型。

这个超级模型可以用来作为许多其他模型的教师模型。它可以是一个奖励模型评估者,一个为其他模型创造答案并决定它是否是一个好答案的评判者。基本上是向其他模型提供反馈。它可以用很多不同的方法蒸馏。基本上是一个教师模型,一个知识蒸馏模型,非常大,非常有能力。

所以现在所有这些都可以在网上找到。这些模型令人难以置信。它在聊天排行榜中排名第一,在指导排行榜中排名第一,在检索排行榜中排名第一。所以在世界各地的人工智能代理中使用的不同类型的必要功能。这些对你来说将是令人难以置信的模型。我们也在与生态系统合作。我们所有的英伟达AI技术都已集成到It行业中。

我们有很棒的合作伙伴,在ServiceNow和Sap正在完成非常出色的工作,在西门子的工业AI,Cadence正在做出伟大的工作。那正在做伟大的工作。我真的为我们带着困惑所做的工作感到自豪。如你所知,他们彻底改变了搜索。是的,真的很棒的东西。

全世界的软件工程师都认为,这将是下一个巨大的AI应用程序。接下来,巨大的AI服务期是软件编码,全球有3000万软件工程师。每个人都会有一个软件助手帮助他们编码。如果没有,显然,你只会降低生产力,创造出更少的好代码。所以这是三千万。世界上有十亿知识工作者。这非常非常清楚。

人工智能代理可能是下一个机器人产业,可能是一个价值数万亿美元的机会?好的,让我向您展示我们创建的一些蓝图以及我们与合作伙伴和这些AI代理商所做的一些工作。

我已经提到过,您可以将英伟达AI带到任何云端,但您也可以将其放入您的云端,但我们最想做的事情就是将其放在我们的电脑上。正如你所知,Windows 95彻底改变了计算机行业。

它使这个新的多媒体服务套件成为可能,然后改变了永远创建的无应用程序。窗户95。当然,这种计算模式对于AI来说并不完美。因此,我们想要做的事情是,我们希望在未来让您的AI基本上成为您的AI助手。

而不仅仅是3D API、声音API和视频API,您将有生成式API、用于3D语言的生成式API和用于声音的生成式AI等等。我们需要一个系统来实现这一点,同时利用云中的大量投资?我们不可能做到。世界可以创造另一种编程AI模型的方式。这只是不会发生的。

因此,如果我们能想出一种方法使Windows PC成为世界级的AI PC,那将是非常棒的。答案就是Windows。它的Windows是两个窗口,两个窗口,WSL两个窗口,WSL两个基本上是两个操作系统中的一个。它完美地工作。它是为开发人员开发的,并且它的开发是为了让您可以访问。裸金属。WSL已经针对云原生应用程序进行了优化。它针对CUDA进行了优化,非常重要的是,它针对CUDA进行了优化。

因此,WSL两个完全支持CUDA开箱即用。因此,我用英伟达Nvidia Nvidia Nemo向您展示的所有内容,我们开发的蓝图都将在AI dot nvidia dot com中使用,只要计算机适合它,只要你能适合那个模型。

我们将有许多适合的模型,无论是视觉模型、语言模型、语音模型,还是动画、人体数字模型、人体模型以及各种不同类型的模型,这些模型都将非常适合您的电脑。如果你下载它并且它应该只运行,它会这样做。

因此,我们的重点是将Windows WSL和Windows Ccc转变为一个目标一流的平台,我们将在我们的生命中将支持和维护它。因此,这对各地的工程师和开发人员来说都是一件不可思议的事情。让我向你展示一些我们可以用它做的事情。这是我们刚刚为您制作的蓝图的例子之一,将军。

所以我们可以让他们为AI oem做好准备,我们合作的所有Pco oem,基本上所有世界领先的pcoem都将为这个堆栈准备好他们的电脑。所以AI PC正在来到你附近的家中。下一个是好的。

好的,让我们谈谈物理AI。说到Linux,让我们来谈谈物理AI。所以物理AI,想象一下,想象一下。而你的大型语言模型,你给它你的上下文,左边的提示,它一次生成一个令牌来产生输出。这基本上就是它的工作原理。

令人惊讶的是,中间的这个模型相当大,有数十亿个参数。上下文长度非常大,因为您可能会决定加载PDF。在我的情况下,在问问题之前,我可能会加载几个PDF。那些PDF正在变成代币。

注意力,tranformer的基本注意力特征是每个令牌都找到它与其他令牌的关系和相关性,因此您可能拥有数十万个令牌,计算负载会以二次方式增加。它通过变压器的每一层来处理所有参数、所有输入序列。它产生一个令牌。

这就是我们需要一堵黑墙的原因。然后在当前令牌完成时产生下一个令牌,它将当前令牌放入输入序列中并获取整个内容并生成下一个令牌。它一次做一个。这就是变压器模型。这就是为什么它如此高效,计算要求很高的原因。如果不是PDF文件,而是你周围的东西呢?

如果那边不是提示问题,而是一个请求,然后拿起你知道那个盒子并把它拿回来呢?而不是在令牌中产生的东西,它是文本,它产生行动令牌。嗯,我刚才描述的对于机器人未来来说是非常明智的事情。而且技术就在拐角处。但是我们需要做的是,我们需要创建有效有效的世界模型,如果你知道的话,而不是GPT,它是一种语言模型。

这个世界模型必须理解世界的语言,必须理解物理动力学,比如重力、摩擦和惯性。它必须理解几何和空间关系,并且必须理解因果关系。如果你掉下了使地面变色的东西,如果你知道,就戳一下,翻过来。它必须理解对象永久性。

如果你把球滚到流理台上,当它离开另一侧时,球并没有离开另一个仍然存在的量子宇宙。因此,我们知道今天大多数模型都很难理解的所有这些类型的理解直觉理解。所以我们想创造一个世界。我们需要一个世界基金会模型。今天,我们要宣布一件非常重大的事情。我们正在宣布推出英伟达宇宙,这是一个世界基金会模型,旨在理解物理世界。而你真正理解这一点的唯一方法就是看到它。

Nvidia宇宙,Nvidia宇宙,世界上第一个世界基金会模型。它接受了2000万小时视频的训练。2000万小时的视频聚焦于物理动态事物,动态自然、主题、人类行走、手移动、操纵事物,你知道的,这些都是相机快速移动的事情。

这实际上是关于教导AI,而不是生成创意内容,而是教导AI理解物理世界。由此,通过这种物理AI,我们可以做许多下游的事情。因此,我们可以进行合成数据生成来训练模型。

我们可以将其提炼并有效地转化为机器人模型的开端,您可以让它生成多个基于物理的、物理上合理的未来场景。基本上,你可以做一个奇怪的医生,因为这个模型理解物理世界。当然,你看到了一大堆生成这个模型的图像,理解了财政世界。当然,它也可以做字幕。所以它可以拍摄视频,并非常好地描述它。

并且字幕和视频可用于训练大型语言模型,多模态大型语言模型。因此,您可以使用这项技术来使用这个基础模型来训练机器人,以及大型语言模型。所以这就是英伟达宇宙。

该平台具有用于实时应用的自动回归模型,作为用于非常高质量图像生成的扩散模型。它是令人难以置信的代币化器。

基本上,学习现实世界的词汇和数据管道,这样如果你想掌握所有这些,然后用你自己的数据来训练它,这个数据管道,因为涉及到如此多的数据,我们已经为你加速了一切的端到端。因此,这是世界上第一个可以像I加速一样加速的数据处理管道。所有这些都是宇宙平台的一部分。今天我们宣布宇宙是开放许可的。它在GitHub上是开放可用的。

我们希望,我们希望这一刻和那里,有一个小型,中型,大型的快速模型,你知道,主流模型和教师模型,基本上不是知识转移模型,因为宇宙世界基金会模型是开放的,我们真的希望能为机器人和工业世界做些什么,就像妈妈三个人为企业人工智能所做的那样。当你将宇宙连接到全宇宙时,奇迹就发生了。

其根本原因是这种全宇宙是一种基于物理的,不是基于物理的,而是基于物理的。它是算法物理学、原则性物理模拟、接地系统。这是一个模拟器。当你把它连接到宇宙时,它提供了基础,能够控制和制约ozmo的产生的基本事实。因此,从宇宙中产生的东西是基于真理的。

这与将大型语言模型连接到检索增强生成系统的rag完全相同。你想让我的一代接地真理。因此,这两者的结合为您提供了一个物理模拟,一个物理接地的多元宇宙发生器。应用程序和用例真的非常令人兴奋。

当然,对于机器人技术和工业应用来说,很明显这个宇宙是全宇宙加上宇宙代表了构建机器人系统所必需的第三台计算机。每个机器人公司最终都将不得不建造三台计算机。一个机器人。机器人系统可以成为一个工厂。机器人系统可以是汽车,也可以是机器人。你需要三台基础计算机,当然,一台计算机来训练AI。

我们调用dgx计算机来训练另一个AI。当然,当您完成部署AI时,我们将车内,机器人或AMR或体育场或其他任何地方的agx称为agx。这些计算机位于边缘并且是自主的,但要将两者连接起来,您需要一个数字孪生体。这就是你看到的所有模拟。

数字孪生体是经过训练的人工智能进行练习的地方,需要进行改进,以处理合成数据生成、强化学习、人工智能反馈等。因此,这是一个数字孪生体,我认为这三台计算机将以交互方式工作。英伟达是工业界的战略。我们已经谈论这个问题一段时间了。这是三个计算机系统,你知道的,不是三个三体问题,我们有三个计算机解决方案。所以看英伟达机器人。

那么让我给你举三个例子。好的,第一个例子是我们如何应用。将所有这些应用于工业可视化。这里有数百万工厂,数十万仓库。这基本上是一个50万亿美元制造业的支柱。所有这些都必须成为软件定义。所有这些都必须在未来实现自动化,并且所有这些都将注入机器人技术。

或与世界领先的仓库自动化解决方案提供商keyon和全球最大的专业服务提供商埃森哲合作。他们非常注重数字制造。我们正在共同努力创造一些真正特别的东西。我马上就会给你展示。但艺术品上市与我们通过开发者和生态系统合作伙伴拥有的所有其他软件平台和技术平台基本相同。

而且我们只有越来越多的生态系统合作伙伴连接到全宇宙。原因很清楚。每个人都希望将工业的未来数字化。在全球50万亿美元的国内生产总值(GDP) 中,有如此多的浪费和自动化机会。那么让我们来看看这个。

下一个例子,自动驾驶汽车,即自动驾驶革命,是在经过这么多年之后到来的,伴随着Waymo的成功和特斯拉的成功。这非常非常清楚。

自动驾驶汽车终于到来了,而我们为这个行业提供的是三台计算机,训练人工智能的训练系统,模拟系统,以及合成数据生成系统omiverse和现在的Cosmos,还有车内的计算机。每家汽车公司可能会以不同的方式与我们合作。使用我们正在使用的一台、两台或三台电脑。几乎世界上所有主要的信用卡公司,包括waymos、Zx和特斯拉,当然,在他们的数据中心,比亚迪,世界上最大的EB公司。

JLR有一张非常酷的卡片要来了。奔驰,一支与英伟达一起推出的车队,从今年开始,将投入生产。我超级,超级高兴地宣布,今天丰田和英伟达将合作创造他们的下一代AVS。

比如Lucid、Rivian和Xiaomi。当然还有沃尔沃,有那么多不同的公司。

我们本周还宣布,Aurora将使用英伟达制造自动驾驶卡车,每年生产1亿辆自动驾驶汽车,全球道路上的车辆数量达到十亿辆,每年行驶一万亿英里的全球里程。这将要么是高度自主的,要么是完全自主的。因此,这将是一个非常大的产业。

我预测这可能会成为第一个价值数万亿美元的机器人产业。这对我们来说是一项业务,请注意其中几辆开始进入世界的汽车。我们的业务已经有40亿美元。而今年的运行速度约为50亿美元。

这台自动驾驶计算机现在已经全面投入生产,其处理能力是我们上一代的20倍,或者说这是当今自动驾驶汽车的标准。所以这真的非常非常不可思议,什么地方正在全面生产?顺便说一句,这个机器人处理器也可以成为一个完整的机器人,所以它可以是一个AMR,也可以是一个人或机器人。大脑。它是一台通用机器人计算机。

我非常自豪的驱动系统的第二部分是对安全驾驶更少的奉献。我很高兴地宣布,现在第一台软件定义的可编程AI计算机已通过认证,这是汽车功能安全的最高标准,是唯一的,也是最高的。所以我真的为这个ISO感到非常自豪。这是大约15000个工程年的工作。这只是非凡的工作。因此,kuuda现在是一台功能齐全、安全的计算机?所以如果你正在建造一个机器人Nvidia CUDA。

好的,所以现在我想,我告诉过你我将向你展示在自动驾驶汽车的背景下,我们将使用Omniverse和Cosmos做什么?而且,你知道的,今天,我不是给你们展示一大堆汽车在路上行驶的视频,而是给你们展示一些。但是我想向您展示我们如何使用汽车自动重建数字孪生,并使用这种能力来训练未来的AI模型。

他把成千上万个驱动器变成数十亿英里。我们将拥有大量自动驾驶车辆的训练数据。当然,我们仍然需要实际的汽车上路。当然,只要我们活着,我们将不断收集数据。

然而,使用这种基于物理、物理接地的多元宇宙能力产生合成损伤,以便我们生成用于训练的数据,这些数据是物理接地的,准确且合理的,这样我们就可以在Av行业中获得大量的数据训练。这是一个令人难以置信的激动时刻。超级,超级。对未来几年感到兴奋。我认为你会看到,就像计算机图形革命一样,如此惊人的速度,在未来几年里,你会看到Av开发的速度惊人地增加。

通用机器人的ChatGPT时刻即将到来,事实上,我所谈论的所有使能技术都将使我们在未来几年看到通用机器人的快速突破,令人惊讶的突破成为可能。

现在,通用机器人如此重要的原因是,带有履带和轮子的机器人需要特殊的环境来适应它们,而世界上有三个机器人,我们可以制造出不需要绿地的机器人。如果我们能够制造这些惊人的机器人,那么棕地适应是完美的,我们可以将它们部署在我们为自己建造的世界中。

这三个机器人是一个机器人和一个人工智能,因为你知道,他们是信息工作者,只要他们能容纳我们办公室里的电脑就很棒。第二,自动驾驶汽车。

原因是我们花了100多年建造道路和城市,然后第三个是人类或机器人,如果我们有技术解决这三个问题,这将是世界上最大的技术产业。所以我们认为机器人时代就在眼前。

=在人类机器人的情况下,关键能力是如何训练这些机器人,模仿信息很难收集,原因是在汽车的情况下,你只需要驾驶它。我们一直在开车。在这些人类和机器人的情况下,人类演示的模仿信息相当费力。

因此,我们需要想出一个聪明的方法来进行数百个演示,数千个人类演示,并以某种方式使用人工智能和全宇宙来综合生成数百万个综合生成的动作。从这些动作中,AI可以学习如何执行任务。让我告诉你这是怎么来的。

数据与Nvidia Isaac根Nvidia Isaac组一起训练机器人。这是我们的平台,为机器人行业提供平台技术元素,以加速通用机器人的发展。好吧,我还有一个东西想给你看。如果没有我们大约十年前开始的这个令人难以置信的项目,所有这些都不可能实现。在内部,该公司被称为项目数字,深度学习GPU智能培训系统数字。

在我们推出它之前,我对dgx进行了缩减,并将其与RTX agx Ovx和我们公司中的所有其他X进行协调。它真正彻底改变了dgx,一个真正彻底改变了Dx,一个EGX,一个彻底改变了人工智能。我们建造它的原因是因为我们想让研究人员和初创公司拥有一台开箱即用的AI超级计算机。想象一下过去建造超级计算机的方式。

你真的必须建立自己的设施,你必须去建立自己的基础设施,并真正地将其改造成现实。因此,我们为AI创建了一台超级计算机,为AI数量,为研究和创业公司创造了一个开箱即用的超级计算机。我在2016年向一家名为openai的创业公司交付了第一个,Elon在那里,el sussver在那里。

许多Mv工程师都在那里,我们庆祝dgx one的到来,显然它彻底改变了人工智能和计算。但现在到处都是人工智能。不仅仅是在研究人员和创业实验室,我们想要人工智能,正如我在演讲开始时提到的,这是现在进行计算的新方式。这是做软件的新方法。每个软件工程师,每个工程师,每个创意艺术家,每个今天使用计算机作为工具的人都需要一台AI超级计算机。

所以我只是希望那个dgx小一些。

这是英伟达最新的AI超级计算机,它现在终于被称为Project Digits。如果你有一个好名字,请与我们联系。这个。这就是令人惊奇的事情。这是一台AI超级计算机。它运行整个英伟达AI堆栈。所有英伟达软件都在此dgx云上运行。这个位置很好,它是无线的,或者连接到你的电脑。它甚至是一个工作站,如果您喜欢它并且可以访问它,您可以像云超级计算机一样访问它。

英伟达的AI在上面工作,它基于我们一直在研究的超级秘密芯片,名为GB 110。我们制作的口吻优雅的Blackwell,我有,嗯,你知道吗,让我们展示一下。让我们带大家进去。

这不是很可爱吗?这是里面的芯片。它正在生产中。我们合作建造了这艘绝密船,CPU,灰色CPU是为英伟达与Mediate合作建造的。他们是世界领先的SOC公司,他们与我们合作构建这个CPU,这个CPU SOC,并将其与芯片到芯片Mv连接,连接到Blackwell GPU。而这个,这个小东西正在全力生产中。我们期望这台计算机在附近可用。所以它就向你走来。

大家新年快乐,谢谢。