打开网易新闻 查看精彩图片

英伟达不仅是AI芯片巨头,更是定义行业标准的全栈平台领导者。

2025年1月6日,身穿标志性皮衣的英伟达创始人兼CEO黄仁勋在拉斯维加斯CES 2026现场发表2026年首场演讲,不仅总结称“2025年,开源模型引发了人工智能革命”,更抛出了“Physical AI(物理AI)的ChatGPT时刻已至”的观点!

打开网易新闻 查看精彩图片

演讲中,黄仁勋集中释放五大核心信号——双重平台转移开启AI新纪元、开源与智能体推动全民创新、物理AI规模化落地、Rubin全栈计算平台量产、AI生态闭环加速行业渗透,为2026年及未来全球AI发展定下清晰基调。

信号一:双重平台转移,十万亿基建迎升级潮

黄仁勋在演讲中指出,计算机行业正经历每十到十五年一次的根本性重置,而当前全球正同时发生两大平台转移:一是应用程序全面构建于AI之上,软件开发从“编程”转向“训练”,运行载体从CPU迁移至GPU;二是软件的开发与运行逻辑彻底革新,AI应用不再是预编译的固定程序,而是能理解上下文、实时生成内容的智能系统。

这一变革正驱动全球价值约十万亿美元的计算机基础设施进行现代化改造,每年数千亿甚至上万亿美元的风险投资涌入AI领域,各行业研发预算持续向人工智能倾斜。黄仁勋强调:“计算已被加速计算和人工智能彻底重塑,技术栈的每一层都在被重新发明,这正是英伟达持续高速发展的核心动力。”

从2015年BERT模型问世、2017年Transformer架构诞生,到2022年“ChatGPT时刻”唤醒全球对AI的认知,再到2024年"测试时缩放"概念出现,AI的进化每一步都伴随着计算需求的爆炸式增长。如今,AI已进入多阶段学习时代,预训练、后训练与实时思考相结合,推动大语言模型持续突破性能边界。

信号二:开源+智能体爆发,AI迈入全民创新阶段

2024—2025年,AI领域迎来两大关键突破:智能体系统全面普及与开源模型实现前沿跨越。黄仁勋介绍,具备推理、信息检索、工具使用、规划模拟能力的智能体已开始解决核心行业问题,英伟达内部广泛使用的Cursor智能体已彻底改变软件开发模式。

开源模型领域更是呈现爆发式增长,2025年DeepSeek R1等开源推理系统的出现,使开源模型达到前沿水平,虽与顶尖模型仍有六个月差距,但迭代速度持续加快。目前,开源模型下载量呈指数级增长,初创公司、大企业、研究员、学生等全球创新力量纷纷参与,推动AI技术走向全民普及。

作为开源生态的核心推动者,英伟达不仅开放Nemotron、Cosmos、Groot等前沿模型,更开源训练数据与NeMo系列生命周期管理库,涵盖物理AI、生物医疗等多个领域。从蛋白质合成、蛋白质结构解析的OpenFold 3,到改变天气预报方式的ForecastNet,再到开放世界基础模型Cosmos,英伟达正以开源模式激活全行业创新。

信号三:物理AI突围落地,重构物理世界交互

物理AI(Physical AI)是当前人工智能领域的核心前沿方向,其本质是让AI从“数字世界”走向“物理世界”,赋能自主系统(如机器人、自动驾驶汽车、智能设备)具备感知、理解物理规律并与真实世界交互的能力,填补了传统AI“懂数据却不懂现实”的“物理盲”短板。

历经八年研发,英伟达物理AI技术正式迎来规模化落地。黄仁勋解释,物理AI的核心是教会机器理解物理世界的常识与规律,包括物体恒存性、因果关系、重力、摩擦力等,同时具备与真实世界交互的能力。这一技术的实现依赖三大核心计算机:训练AI的超级计算机、边缘端推理计算机,以及用于环境模拟的专用计算机。

此次演讲中,英伟达正式宣布开源全球首个会思考、会推理的自动驾驶AI模型Alpamayo。该模型采用端到端训练,整合真实道路行驶数据、人类驾驶示范与Cosmos生成的合成数据,不仅能接收传感器输入并控制车辆,还能推理行动逻辑与轨迹。依托英伟达双Thor处理器的高安全设计,搭载Alpamayo的梅赛德斯-奔驰自动驾驶汽车将于2026年第一季度在美国上路,随后逐步登陆欧洲与亚洲市场。

打开网易新闻 查看精彩图片

黄仁勋强调,自动驾驶技术栈采用双重冗余设计,Alpamayo策略系统与经典自动驾驶防护栏系统相互印证,确保行驶安全。这一技术架构同样适用于各类机器人系统,目前英伟达已与卡特彼勒、波士顿动力、Universal Robots等企业合作,通过Isaac Sim等模拟器与Jetson嵌入式计算机,推动工业机械臂、移动机器人、人形机器人等产品的智能化升级。

信号四:Rubin平台量产,全栈芯片突破计算极限

面对AI计算量每年10倍增长、token生成量5倍增长的需求,英伟达正式宣布新一代Rubin计算平台进入全面生产阶段。该平台通过极致协同设计,重构了从芯片到系统的全技术栈,推出Vera CPU、Rubin GPU、NVFP4 Tensor Core等八大核心组件,实现性能与能效的跨越式提升。

打开网易新闻 查看精彩图片

Rubin平台搭载的Vera CPU,单线程性能、内存容量大幅提升,每瓦性能达到业界领先水平;Rubin GPU以1.6倍的晶体管数量实现数倍于前代的浮点性能;创新的NVFP4 Tensor Core采用动态精度调整技术,可在保证精度的同时提升吞吐量。基于该平台的DGX SuperPOD集群,包含1152个Rubin GPU,分布于16个机架,峰值推理性能达到前代的5倍,峰值训练性能提升3.5倍。

在系统设计上,Rubin平台实现重大突破:HGX机箱取消所有电缆与水管,组装时间从2小时缩短至5分钟,支持100%液冷;采用45℃热水冷却技术,无需冷水机,能效惊人;通过Spectrum-X以太网交换机与NVLink-6交换机,实现每秒240太字节的数据传输速率,相当于全球互联网带宽的2倍。此外,平台支持机密计算,所有数据在传输、存储与计算过程中全程加密,保障模型与数据安全。

针对AI上下文内存不足的痛点,英伟达引入BlueField-4处理器构建全新KV缓存存储系统,每个机架可提供150太字节上下文内存,使单个GPU额外获得16太字节内存扩展,有效解决大规模AI交互中的网络流量瓶颈。

信号五:生态闭环成型,全行业加速AI落地

目前,英伟达全栈AI体系已实现广泛行业渗透。在企业级市场,Palantir、ServiceNow、Snowflake等平台均已集成英伟达AI技术,智能体系统成为全新用户交互界面,替代传统的表格输入与命令行操作,使多模态信息交互更自然高效。

在芯片设计领域,Synopsys、Cadence将CUDA-X物理AI集成至设计工具,实现芯片与系统的模拟仿真革新;西门子则深度整合英伟达智能体AI与NeMo库,推动工业制造的智能化升级。黄仁勋表示,英伟达构建的全栈技术体系不仅服务于自身产品,更向整个生态开放,从富士康、广达到惠普、戴尔、联想等硬件厂商,均已实现相关系统的标准化生产。

黄仁勋在演讲结尾强调:“今天的英伟达早已超越芯片公司的定位,我们构建的是从芯片、系统、基础设施到模型、应用的完整全栈AI体系。我们的使命是让每一家企业、每一个行业、每一个国家都能参与到AI革命中,共同创造令人惊叹的AI应用,重塑世界的未来。”

随着Rubin平台的量产、Alpamayo的开源与物理AI的落地,英伟达正引领全球AI产业从数字智能走向物理世界交互,一个百万亿美元规模的AI新生态将加速成型。

责编/版式:孙天

审校:梅雅鑫 王 涛

监制:刘启诚

【通信世界新媒体矩阵】

央视频 | 微软MSN | 视频号 | 微博 | 今日头条 | 百家号 | 网易号 | 人民号 | 腾讯新闻

搜狐 | 新浪看点 | 雪球号 | 抖音 | 快手 | 爱奇艺 | 知乎 | 哔哩哔哩 | 咪咕视频 |CSDN

【新媒体团队】

监制|刘启诚

审校|王涛 梅雅鑫

编辑|梅雅鑫 孙天 朱文凤

视频制作|蒋雅丽 黄杨洋