作者 | Talk君
大家好,我是talk君
拉斯维加斯CES 2026主会场,数千名观众提前两小时排起长队,英伟达CEO黄仁勋迟到十几分钟后,身着闪亮黑色皮衣登场。这件Tom Ford 2024秋冬系列鳄鱼皮夹克,海外定价约8900美元,在灯光下格外醒目。
但台下的几千名观众明白,今晚的主角不是这位科技领袖本人和他昂贵的皮衣,而是他带来的那个即将从虚拟渗透进现实的未来。
家好,拉斯维加斯!新年快乐!欢迎来到CES!”
黄仁勋以他标志性的沉稳语调开篇:
“计算行业每10-15年一次的平台迁移正在发生,但这次不同——
我们正在经历的不是一次,而是两场同时进行的革命
。”
双重平台转移:AI正在重构计算产业底层逻辑
黄仁勋洞察到,当下同时发生着两个根本性转变。一方面,未来的应用程序将构建在AI之上,而不仅仅是集成AI功能;另一方面,软件的开发方式也从编写代码转变为训练模型。
“你不再‘编程’软件,而是‘训练’软件;你不再在CPU上运行它,而是在GPU上运行它。”
黄仁勋指出。这一转变意味着传统计算栈的每一层都在被重新发明,催生了数万亿美元的基础设施更新需求。
全球计算基础设施规模约十万亿美元,其现代化改造已拉开序幕。数千亿美元的风险投资正在涌入这一领域,推动从传统AI向现代AI的转型。
黄仁勋强调:
“研发预算从经典方法转向现在的人工智能方法,海量投资正涌入这个行业,这解释了为什么我们如此忙碌。”
开源革命:从DeepSeek R1到产业新生态
2025年,开源模型迎来爆发式增长,成为推动AI普及的关键力量。黄仁勋特别提到DeepSeek R1的开源推动了整个行业的变革。
“当开源、当开放创新、当全世界每个行业、每家公司的创新同时被激活时,AI将无处不在。”
黄仁勋在演讲中如此评价开源模型的意义。开源模型虽然仍落后前沿模型约六个月,但进步神速,已成为不可忽视的力量。
这一开源生态的战略价值在于,它使得全球每个行业、每个公司都能参与AI革命。
开源AI的本质是“知识的民主化”。当模型、训练数据、乃至整个训练过程都开放时,创新的门槛被彻底打破。
从初创公司到大型企业,从研究人员到学生,都能基于这些开源模型构建自己的AI应用。
黄仁勋展示了英伟达在多个领域的开源贡献,包括蛋白质设计、天气预报、物理模拟等,彰显了其构建完整开源生态的雄心。
在他看来,这不仅是为了建立生态,更是一种对未来竞争形态的重新定义——竞争不再是谁拥有最强的单一模型,而是谁的模型能与最广泛的创新结合,催生出最有价值的应用。
物理AI突围:世界模型与自动驾驶的里程碑
在黄仁勋的叙述中,物理AI面临着一个看似简单却极为棘手的难题:如何让AI获得人类孩童时期就能自然习得的“常识”?
他举了一个深刻的例子:一个婴儿在抓取物品时,能凭直觉理解物体的重量、表面的摩擦力、松手的瞬间重力会将其拉向地面。
这些对我们而言无需思考的经验,对AI来说却是一块“认知的黑暗大陆”。
因此,我们必须创建一个系统黄仁勋指出,
“让 AI 能够学习物理世界的常识、学习其规律,当然也能从数据中学习。而数据相当稀缺。并且需要能够评估 AI 是否有效,这意味着它必须在环境中进行模拟。”
语言的、文本的、图片的、视频的数据充斥于网络,但关于“重力如何让物体坠落”“摩擦力如何让汽车减速”这类物理本质的数据,在现实世界中既难以捕捉,也极少被系统化记录。
英伟达给出的答案是构建一套前所未有的三重系统架构。
黄仁勋将其简洁地称为“训练、推理、仿真”三台计算机的协同。其中,仿真计算机或许是最具革命性的——它不只是模拟,而是在数字世界中创造一个遵循物理定律的平行宇宙。
通过Omniverse数字孪生平台和Cosmos世界基础模型,英伟达正在创建能够理解物理定律的AI系统。
自动驾驶汽车系统Alpamayo的发布,展示了这一技术路径的成果。这不仅是端到端训练的自动驾驶AI,更是一个“会思考、会推理”的系统。
它的突破在于不仅告诉你“我要左转”,还会解释原因,比如前方有行人横穿需要减速,左侧车道有车辆变道选择保持车道并调整速度。
这种可解释的AI决策过程,是解决自动驾驶“长尾问题”的关键——通过将罕见场景分解为已知元素的组合,AI能够处理从未直接训练过的情况。
首款搭载Alpamayo技术的自动驾驶汽车将是2025款梅赛德斯-奔驰CLA,将于2026年第一季度在美国上市。
全栈重构,Rubin平台的协同设计哲学
面对AI计算需求的指数级增长,英伟达拿出了新一代AI芯片架构:NVIDIA Vera Rubin。
它的命名来源于发现暗物质的天文学家薇拉·鲁宾,寓意照亮AI计算的未知领域,这一平台体现了英伟达从芯片到系统的全栈创新能力。
Vera Rubin平台不是单个芯片的迭代,而是从晶体管到系统架构的全栈重新思考。黄仁勋展示了六颗全新的芯片,包括 Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9智能网卡、BlueField-4 DPU、Spectrum-X 102.4T CPO 。
“在摩尔定律放缓的时代,单纯依靠制程进步带来的性能提升是有限的。真正的突破来自于从系统层面重新思考每个组件的角色,以及它们如何协同工作。”
他举了一个生动的例子:在传统的计算架构中,数据传输往往成为瓶颈。而在Vera Rubin中,通过重新设计芯片间的高速互连,整个系统的通信带宽达到了“全球互联网总带宽的两倍”。
这意味着AI模型在进行大规模并行计算时,不再需要等待数据在芯片间缓慢移动。
“更关键的是效率”黄仁勋指出……
“虽然Vera Rubin的计算能力是上一代的数倍,但其散热需求和能耗却没有线性增加。在数据中心电力成为稀缺资源的今天,这或许比单纯的性能提升更为重要。”
他透露,新一代平台在保持45摄氏度工作温度的前提下,实现了性能的跨越式提升,这将帮助全球数据中心节省约6%的总电力消耗。
生态闭环,从芯片到行业渗透
“如大家所见,今天的英伟达早已不仅是芯片公司。”
演讲结尾,黄仁勋明确了英伟达的新定位——构建完整的全栈AI体系,从芯片、系统、基础设施,到模型和应用。
英伟达正在将其在自动驾驶领域验证的垂直整合模式扩展到更广泛的机器人产业。通过开源Alpamayo自动驾驶系统,他们不仅提供技术组件,更展示了一种全栈解决方案的蓝图。
这种全栈能力正在渗透到各个行业。在EDA(电子设计自动化)领域,英伟达与Cadence、Synopsys合作,将CUDA-X物理AI集成到芯片设计工具中。在工业领域,西门子正在其数字孪生平台中深度集成英伟达的AI技术。
“未来,我们将在Cadence和Synopsys内部设计芯片,并在这些工具内部模拟一切。”
黄仁勋描述了一个AI赋能的芯片设计未来,智能体芯片设计师将与人类工程师并肩工作。
英伟达的生态策略具有明显的网络效应:更多行业采用其全栈方案,就会生成更多数据,训练出更好的模型,反过来吸引更多行业加入。
这种正反馈循环一旦形成,将构成极高的竞争壁垒。
CES 2026的舞台上,黄仁勋没有展示任何酷炫的消费电子产品,而是描绘了一个被AI重塑的世界架构。
在这个新世界里,计算的基础被重写,智能被民主化,机器开始理解物理规律,而英伟达正在构建支撑这一切的全栈技术体系。
当被问及“钱从哪里来”时,黄仁勋的回答指向了一个更深层的趋势:传统行业的研发预算正大规模转向AI,这是一场价值百万亿美元产业的技术再分配。
而英伟达,正通过从芯片到模型的全栈布局,将自己置于这场再分配的中心节点。
你对此有什么看法?欢迎评论区留言讨论~
赶紧关注视频号@一刻talks吧!
热门跟贴