4月16日凌晨1点,美国作家、播客主持人Dwarkesh Patel放出与英伟达创始人黄仁勋的深度访谈。
本次对谈高达1小时46分钟,我猜测录制总时长要超过2个半小时,也是近两年黄仁勋对谈中第二长的播客采访,信息密度超大。
对谈内容涵盖英伟达的供应链护城河、TPU竞争威胁,以及英伟达为何不自己做云服务等问题。
尽管播客里面存在很多黄仁勋谈的旧观点,如“五层蛋糕理论”、英伟达护城河很高等,但Dwarkesh Patel问的非常犀利,所以黄仁勋输出了也很多新颖的观点,值得拆解分析。
例如,黄仁勋首次抛出英伟达的极简定义:“输入是电子信号,输出是Intelligence Token,中间是英伟达。”
他认为这是一套系统化的价值链,英伟达需要做到标准化、系统化,而且“只做核心必要业务”,英伟达就不会被淘汰。
对于中国市场,黄仁勋依然表示,我们不能将芯片、算力简单等同于核武器、浓缩铀这类物资。芯片是通用计算硬件,中国本身具备大规模自主制造能力,无法实现绝对管控。英伟达主动放弃中国市场,只会加速中国本土芯片产业迭代成熟,彻底脱离美国技术生态,这对美国芯片产业、科技领导力,才是更大的伤害。
黄仁勋指出,制程差距,无法彻底限制 AI 技术迭代。更重要的是,顶尖算法人才的创新能力,能够突破硬件限制。摩尔定律增速有限,但算法优化、架构创新能够带来数十倍的性能提升。DeepSeek等中国开源大模型的快速迭代,已经证明了这一点。
黄仁勋表示,制程迭代的性能差距,被严重高估。从Hopper到 Blackwell,制程带来的硬件性能提升仅有 75%,而架构、算法、互联优化带来的能效提升达到50倍。半导体工艺只是底层基础,计算架构、软件生态、算法创新、高速互联,才是决定AI算力上限的核心因素。单纯依靠先进制程封锁,无法限制AI发展,反而会倒逼对方探索差异化技术路线。
黄仁勋强调,绝不对GPU进行“价高者得”的竞价售卖,也不会放弃中国市场。
我们将通过万字左右的篇幅,人类用AI辅助方式,将黄仁勋的观点摘录拆解,以飨读者:
谈取代论:软件不会商品化, 而是需要系统化形成电子+tokens+英伟达
主持人问:我们看到一众软件公司的估值大幅暴跌,根源在于市场普遍认为AI会让软件彻底商品化。当下存在一种略显片面的认知逻辑:媒体先传输设计文件,交由台积电完成逻辑芯片的制造;台积电生产芯片开关元件,再搭配 SK 海力士、美光、三星制造的高带宽内存完成封装,随后运往代工厂完成整机机柜组装。从本质来看,英伟达只负责研发软件,硬件制造全部交由外部厂商完成。一旦软件沦为同质化大宗商品,英伟达自身也会随之变成大宗商品化的企业。
对此,黄仁勋表示:
归根结底,必须有一套体系完成电子信号到Intelligence Token的转化,并且持续提升这些tokens的价值。但这种价值增值的商业化落地,其实很难完全闭环实现。
这种转化,本身就是一套极具复杂度的产业过程;想要区分Token价值、实现差异化,就好比让两种不同分子产生价值差。
想要赋予智能tokens独特价值,需要凝聚大量工艺设计、工程技术、基础科学与技术创新。眼下我们正亲眼见证这一过程持续演进。
所以,这套转化流程、制造体系以及底层科学原理,人类远未完全吃透,整个产业的发展旅程也远远没有抵达终点。因此我并不认同软件会快速商品化的判断。
我们会持续优化整套体系的运行效率,而外界对英伟达的定位认知,恰好契合我对公司的核心定义:输入端是电子信号,输出端是智能tokens。
英伟达的核心使命,是以最低冗余、最高必要限度,支撑这套转化体系实现极致性能。
我所说的 “最低冗余”,指所有非核心业务环节,我们都会通过生态合作、外包协同的方式交由合作伙伴完成,纳入自身生态体系。
放眼当下,英伟达拥有业内规模最庞大的合作伙伴生态,覆盖上下游供应链、整机厂商、应用开发者、大模型研发企业等全链条。
人工智能可以比作五层叠加的分层产业体系,我们的生态布局贯穿全部五层,始终坚持 “只做核心必要业务” 的原则。
但不得不说,我们必须自研深耕的核心业务,难度极高,绝对不可能被商品化。
除此之外,我也不认同多数企业软件公司的商业模式会走向衰退。如今绝大多数软件厂商本质都是工具供应商,少数企业专注工作流与标准化系统搭建。
Excel、PowerPoint 是工具,Cadence(楷登)、新思科技同样以EDA工具研发为核心。
我的判断和市场主流观点完全相反:AI 智能体的数量会呈指数级爆发,工具使用者规模同步暴涨,各类工业软件、研发工具的部署体量也会迎来井喷。
举个例子,新思科技的AI设计编译工具、芯片布局规划软件、版图设计工具、设计规则检测工具,未来的部署规模都会大幅增长。
过去这类工具的使用规模,受限于工程师的人力数量;未来,工程师会由海量 AI 智能体辅助协同,人类能够前所未有的广度探索设计边界,并且持续沿用当下成熟的工业工具。
因此我认为,AI 智能体的普及,会带动工具类软件企业的业绩与估值迎来爆发。
目前这一趋势尚未落地,核心原因是现阶段 AI 智能体熟练使用专业工具的能力仍有欠缺。
后续要么是软件厂商自主研发适配的专属智能体,要么是通用 AI 能力持续迭代、最终适配各类专业工具,大概率会是两种路径并行发展。
随后,主持人问:我注意到,英伟达最新财报披露,已与晶圆厂、存储厂商、封装企业达成近千亿美元的长期采购承诺;而半导体行业分析机构预测,这类长期锁量采购的总规模,后续会达到2500亿美元。外界有一种解读:英伟达的核心战略,是提前锁定未来数年全球稀缺的芯片核心零部件。即便其他企业能够自研 AI 加速芯片,也很难拿到配套内存、逻辑芯片等关键物料,无法完成量产落地。这正是英伟达未来数年最核心的竞争壁垒与战略布局。
黄仁勋:
这确实是我们的核心优势之一,也是其他企业难以复刻的能力。
我们在产业链上游做出了海量长期投入与采购承诺,既有公开明确的硬性协议,也有隐性的生态绑定。
多年来,我持续向全产业链上游企业的管理层传递行业判断、拆解 AI 产业的长期规模、梳理发展逻辑、分享我们的前沿洞察。
通过持续沟通、理念共识与价值绑定,上游厂商才愿意提前加码产能投资。
而他们优先选择与英伟达合作、而非其他企业,核心原因很简单:我们具备大规模采购消化产能的能力,同时依托庞大的下游生态与需求,帮助上游厂商稳定营收。
英伟达庞大的下游供应链与海量市场需求,是上游厂商敢于长期重资产投入的底气。
就像 GTC 大会,外界只会惊叹于它的规模与参会体量,但本质上,这是一场覆盖全 AI 产业的全景生态盛会。
上下游企业、全产业链参与者齐聚一堂,彼此对接资源、同步行业进展;我主动整合各方资源,让上游看见下游需求、让下游理解上游产能规划,让所有人同步 AI 技术迭代成果。
更重要的是,所有参会者能够直面 AI 原生企业、初创公司,直观看到 AI 落地的各类创新应用与产业变革,切身验证我对行业的长期判断。
我长期投入大量时间,直接或间接向供应链伙伴、生态合作方传递行业机遇。
很多人觉得我的主题演讲只是接连发布新品、公布技术更新,但实际上,我的演讲中始终包含产业科普与趋势解读的内容,这是我刻意设计的核心环节。
我必须确保上下游全产业链、整个生态体系,都能清晰认知行业未来趋势、变革动因、落地时间与市场规模,像我们一样形成系统化、理性的长期判断。
依托这套布局,我们才有能力为未来提前铺路。
倘若未来数年 AI 产业达到万亿级规模,我们提前布局的供应链,足以支撑业务高速增长。
企业发展离不开现金流,产业运转同样离不开供应链流转与产能周转。
没有企业会为短期性、低周转的技术架构投入重资产搭建供应链。
英伟达能够持续支撑超大算力规模,唯一核心支撑,就是极致庞大的下游需求,这一点全产业链都有目共睹。
正是基于这样的底层逻辑,我们才有能力持续落地超大体量的产业布局与技术研发。
我们是在超大基数之上,持续实现规模翻倍增长,增长难度可想而知。
客观来说,现阶段全球上下游的瞬时算力需求,已经全面超越现有供给能力。
产业发展会阶段性受限于各类细分环节的人力与产能,这种情况确实客观存在。
主持人问:既然英伟达已经垄断先进制程的绝大部分产能,如何持续保持每年翻倍的算力扩张?当下是否已经进入瓶颈期,受上游产能限制,AI 算力的增速必然放缓?行业该如何实现晶圆厂产能的逐年翻倍扩张?这是所有企业最终要面对的问题。业内都在调侃,明年 GTC 的核心紧缺岗位,就是基建配套的工程人员。
黄仁勋进一步解释:
当前存在一个良性的行业特征:瞬时需求大于整体供给,是优质赛道的核心标志。
供需严重失衡固然会带来短期压力,但完全供过于求的行业,发展前景只会更加黯淡。
如果某一个单一零部件、细分材料出现严重短缺,全产业会集中资源攻坚补短板。
举个例子,此前行业很少讨论CoWoS封装技术,原因在于过去两年,全产业集中发力扩产、多轮翻倍投入,如今CoWoS产能已经趋于稳定。
台积电也明确意识到,CoWoS封装必须同步匹配逻辑芯片、内存芯片的需求增速,因此正在持续扩产,同时同步升级下一代封装技术,进度与先进制程保持一致,这对整个行业至关重要。
过去,HBM高带宽内存、高端封装都属于小众定制化产品;而如今,它们已经成为全球通用的主流计算硬件。
相比 AI 产业起步初期,如今我们对整条供应链的影响力与掌控力,已经大幅提升。
五年前我提出的所有行业判断与技术布局构想,如今正在逐一落地。
当时只有少数企业愿意相信并加码投资,美光就是典型代表,我至今清晰记得当年的沟通会议。
我们精准预判了行业走向,美光坚定加码布局,双方围绕 LPDDR、HBM 内存深度合作,这笔长期投资最终为其带来了爆发式增长。
还有很多企业入局较晚,但如今也已全面跟进布局。
行业每一轮技术迭代、每一个产能瓶颈,都会获得全产业的重点关注。
现在我们的策略,是提前数年预判潜在瓶颈、前置布局。
过去数年,我们围绕硅光技术,与合作企业、生态伙伴持续投入,联合企业深度协作,彻底重塑了硅光领域的产业生态与供应链体系。
在硅光赛道,我们依托台积电搭建了完整的配套供应链,联合研发多项原创技术,同时将相关专利开放授权给全行业,维持生态的开放性。
通过自研新技术、革新工作流程、研发全新检测设备、布局双面探针测试、战略投资细分企业、助力合作方产能爬坡等方式,提前完善供应链配套,为大规模算力落地铺路。
我们一直在主动塑造产业生态,确保整条供应链能够匹配未来超大算力规模的落地需求。
不过,硬件产能的短期快速扩张确实存在难度,但这类瓶颈的解决周期,普遍只需要两到三年。
只要下游释放明确、长期的刚需信号,产能扩张就会快速落地:能造出第一台设备,就能量产十台;能量产十台,就能规模化铺开。硬件设备的规模化复制,本身不存在底层技术壁垒。
我们的布局分为直接合作与间接联动两种模式。部分核心环节会直接深度绑定;更多时候,我们通过推动台积电等核心代工厂,同步向上游设备厂传递长期需求。
只要台积电确认长期扩产规划,未来数年的光刻机供给就会得到充分保障。
所有硬件层面的产能瓶颈,都不会长期持续,基本两到三年就能完全化解。
与此同时,我们还在持续通过技术迭代提升算力效率:从 Hopper 架构到 Blackwell 架构,算力能效提升10至20倍,部分场景甚至达到30至50倍。
这些技术层面的突破,完全不会让我产生焦虑。
真正需要警惕的,是算力下游的配套限制,比如能源政策。
任何产业的落地都离不开能源支撑,全新的高端制造产业、AI 算力产业,更是需要稳定充足的能源供给。
当下美国正在推进制造业回流,计划重启芯片制造、计算机组装、封装产业,同步布局新能源汽车、机器人、AI 算力工厂等新兴赛道。
但所有产业落地的前提,都是充足的能源。
芯片产能扩张、高端封装产能建设,都只需要两到三年就能完成落地;唯有能源体系的升级改造,周期漫长、难度更高。
谈到矩阵运算话题,黄仁勋表示:
矩阵运算固然是 AI 的核心基础,但绝非全部。
如果想要研发全新的注意力机制、拆分重构模型架构、设计混合 SSM 架构、融合扩散模型与自回归模型,或是探索各类创新算法,都需要高度可编程、高灵活性的算力架构。
英伟达 GPU 能够支撑所有前沿算法研发与架构创新,这是封闭定制化芯片做不到的。
算法的持续迭代,才是 AI 技术高速发展的核心动力。
摩尔定律每年只能带来约 25% 的硬件性能提升,想要实现十倍、百倍的性能飞跃,只能依靠底层算法与计算架构的颠覆性创新。
这正是英伟达的核心壁垒。
Blackwell 架构相比 Hopper 架构能效提升的突破,就是最好的证明:我最初公布的提升幅度是 35 倍,后续实测验证达到 50 倍。
这种级别的性能飞跃,单纯依靠制程迭代完全不可能实现,核心源于模型架构重构、混合并行计算、算力拆分分布式部署等软件与硬件协同优化。
依托 CUDA 生态,研发人员能够自定义核心算子、优化底层代码,实现极致定制化优化,这是封闭架构无法复刻的。
除此之外,英伟达坚持软硬件深度协同设计,能够将部分计算任务下沉至互联架构,结合高速互联总线,打通芯片、整机、网络、软件库、算法的全链路优化。
脱离 CUDA 生态,这套全链路协同优化体系根本无从搭建。
谈失误:当年我低估顶尖AI大模型资金门槛,错失投资Anthropic
主持人谈到关键话题:当下全球顶级大模型中,Claude、Gemini两大模型均基于谷歌TPU进行训练,这一趋势会对英伟达的长期发展造成哪些影响?
黄仁勋:
英伟达的产品定位,和 TPU 有着本质区别:我们打造的是通用加速计算体系,而非单一的张量处理器。
加速计算的应用场景极其广泛,涵盖分子动力学、量子色动力学、结构化与非结构化数据处理、流体力学、粒子物理等科研领域,人工智能只是其中一大核心场景。
虽然AI是当下行业焦点、影响力巨大,但计算产业的边界远比 AI 更广阔。
英伟达的核心变革,是将传统通用计算,升级为高效的加速计算模式,覆盖全行业应用。
我们的市场覆盖范围、落地场景,是 TPU、各类定制 ASIC 芯片无法比拟的。
放眼全球,英伟达是唯一一家能够全场景应用加速计算的企业,拥有海量生态框架与自研算法适配。
我们的硬件产品主打开放适配,任何企业、机构都能独立部署运维;反观谷歌等自研算力体系,高度封闭,仅适配自身业务,运维门槛极高。
目前英伟达算力已经全面入驻全球主流云厂商,包括谷歌云、亚马逊云、微软 Azure、甲骨文云等。
无论是按需租用云算力,还是自建本地算力集群,英伟达都能提供完整解决方案。
如果选择租用算力,我们庞大的跨行业客户生态,能够保障算力资源持续消化;如果企业选择自建算力,我们同样能提供全流程技术支持,适配不同行业需求。
举例来说,礼来制药可以依托英伟达算力搭建超算中心,用于新药研发、生物科学研究。
这类多元化落地场景,是TPU完全无法覆盖的。
英伟达的CUDA生态,本身就具备顶级张量计算能力,同时覆盖数据处理、模型训练、推理部署等全生命周期计算需求。
我们的市场空间、业务边界、生态体量,都具备绝对优势,几乎适配全球所有应用软件与科研场景。
企业部署英伟达硬件,无需担心适配问题,天然拥有海量潜在客户,这就是我们的核心差异化优势。
对于主持人问到的另一个关键问题:英伟达的核心客户结构中,五大超大规模科技企业贡献了 60% 以上的营收。早期 AI 研发以高校、科研机构为主,高度依赖 CUDA 生态,无法脱离英伟达算力;但当下头部超算企业资金雄厚,完全有能力自研底层算子、定制化优化算力架构。Anthropic、谷歌核心采用自研加速芯片,即便使用 GPU,也会基于 Triton 框架重构底层代码,抛弃通用组件,搭建专属技术栈。如果核心大客户都具备自研适配、替代通用算力的能力,英伟达凭借 CUDA 构建的护城河,还能否持续主导前沿 AI 研发?
黄仁勋直接表示:
CUDA 的核心价值,在于庞大且成熟的全栈生态。
开发者优先基于 CUDA 开发模型,是绝对理性的选择:生态覆盖全品类框架,适配所有主流研发工具。
我们深度参与 Triton 框架的研发迭代,为其后端提供大量英伟达核心技术支持,全力适配各类第三方框架。
当下大模型后训练、强化学习赛道高速爆发,全新框架层出不穷,而 CUDA 能够无缝兼容所有新技术体系。
其次,成熟的生态能够大幅降低研发排错成本。
搭建复杂 AI 系统时,代码报错难以避免,完善的底层生态能够帮研发者快速定位问题:区分自定义代码 bug 与底层硬件、框架漏洞。
英伟达软硬件经过长期大规模落地验证,稳定性与兼容性具备绝对优势,能够为上层研发提供可靠底座。
第二大核心优势,是海量存量装机规模。
开发者研发模型与工具,最终需要规模化部署落地,必然要求硬件具备广泛适配性。
英伟达 GPU 覆盖全代际、全规格产品,全面入驻全球云厂商、本地数据中心、边缘设备,机器人、终端设备等场景也深度渗透。
一旦基于 CUDA 完成模型开发,就能实现全场景部署复用,极大降低落地成本,这是任何封闭自研架构都无法比拟的。
最后,全云厂商全覆盖的布局,是英伟达独一无二的优势。
AI 企业与开发者无法固定单一云厂商,而英伟达算力能够适配公有云、私有云、本地部署等所有模式,灵活适配企业多元化需求。
生态完善度、装机覆盖规模、全场景适配能力,三者结合,共同构筑了 CUDA 不可替代的核心价值。
英伟达专门组建了大规模专属技术团队,深度对接头部 AI 实验室,一对一优化客户专属技术栈。
我们比任何外部企业都更了解自身硬件架构,能够帮助客户实现算力二次翻倍,特定算子、模型的优化幅度甚至达到2至3倍。
CPU可以比作家用豪华轿车,通用性强、操作简单、门槛极低;
而英伟达 GPU 更像是F1赛车,极限性能极强,想要发挥全部潜力,需要专业技术与深度优化。
即便客户具备自研能力,也很难仅凭自身团队挖掘硬件全部性能。
我们同样会运用AI技术优化底层算子,持续拉大通用方案与定制优化方案的性能差距。
长期来看,头部AI企业依然高度依赖英伟达的技术协同。
放眼全球,没有任何一家企业的计算集群,能够在性能、总体拥有成本上超越英伟达方案,各类公开基准测试都已验证这一点。
行业推理基准工具 Inference Max 完全公开,但没有任何一款 TPU、自研芯片能够拿出对标级别的成本与性能数据。
我们欢迎所有竞品公开训练、推理的实测数据,对标比拼成本优势,但至今无人响应。
英伟达能够长期维持高毛利,核心源于极致的综合成本优势与全链路优化能力。
另外需要纠正一个认知:五大超算企业贡献的营收中,绝大多数来自对外云服务,而非自身业务自用。
亚马逊云、Azure、甲骨文云采购英伟达硬件,核心是为了服务全球各行各业的外部客户。
这些云厂商选择英伟达,本质是看中我们庞大的生态与客户资源,能够帮助他们吸引全球 AI 企业、开发者入驻。
数万级别的 AI 初创企业、科研团队,都会优先选择英伟达生态搭建业务,这就是稳固的商业飞轮。
而对于AI初创企业而言,硬件选型的核心标准永远是:市场存量最大、生态最完善、落地门槛最低。
这就是英伟达的正向飞轮:
第一,单位算力成本、tokens生成成本行业最低;
第二,单位功耗产出算力全球第一,能够帮助超大规模数据中心最大化营收与产出;
第三,开放的硬件生态,能够吸引全球海量客户,保障云厂商、算力合作方的业务稳定性。
多重优势叠加,共同构筑了不可复制的行业壁垒。
主持人继续追问Anthropic官宣与博通、谷歌深度合作的话题:我结合现实现象提问,抛开理论优势,近期 Anthropic 官宣与博通、谷歌深度合作,大规模采用 TPU 集群作为核心训练算力;谷歌更是全面自研 TPU,实现算力自给。曾经前沿大模型清一色基于英伟达 GPU 训练,如今多元算力架构快速崛起,这一趋势该如何解读?既然英伟达软硬件综合优势客观存在,为何头部企业会主动选择竞品架构?
黄仁勋回应称:
Anthropic 是极个别的特殊案例,并非行业普遍趋势。
脱离 Anthropic 来看,TPU 的市场需求与产业规模,很难独立支撑增长,高度依赖单一客户。
整个 ASIC 定制芯片赛道,并没有出现全面爆发的趋势,仅此一家特例无法代表行业走向。
再看 OpenAI 与 AMD 的合作、自研加速芯片项目:即便布局多元算力,其核心算力集群依然以英伟达为主,双方的深度合作也会长期持续。
我们完全尊重竞品布局,行业良性竞争能够倒逼技术迭代,持续巩固我们的产品力。
各类自研芯片项目层出不穷,但最终能够实现规模化落地、全面超越英伟达的产品,至今尚未出现。
英伟达常年保持每年一代的技术跨越式迭代,持续拉大技术差距,这是其他企业难以复刻的节奏。
不能只看英伟达的高毛利率,就片面认定硬件溢价过高。
定制 ASIC 芯片的厂商,自身同样维持着极高的利润率。
长期来看,供应链成本、研发投入、技术迭代成本最终都会转嫁,不存在单方面的成本优势。
还有一个关键历史因素:AI 产业早期,我们并未预判到头部大模型实验室需要千亿级别的重资产投资。
谷歌、亚马逊云早期通过战略投资绑定 Anthropic,以资本换取算力采购绑定,这是我们早期错失的布局机会。
受限于当时的企业体量与战略节奏,我们无法拿出数百亿级别资金,战略投资头部 AI 实验室。
这是我当年的战略失误:低估了顶级大模型实验室的资金门槛,原本依赖风险投资的行业,最终需要算力厂商的大额战略输血。
即便提前预判,以当时英伟达的体量,也无法支撑千亿级别的产业投资。
但同样的错误不会再犯。
如今我们已经战略投资OpenAI,全面助力其算力扩容;后续Anthropic寻求合作时,我们也主动参与投资、提供技术支持。
如果时光倒流,以英伟达如今的体量与现金流,我们一定会更早入局,绑定头部 AI 原生企业。
我们的布局节奏,完全依托自身发展能力。
只要能力允许,我们就会第一时间落地产业投资;
当年 Anthropic 寻求战略合作时,我们确实不具备大规模投资的能力,整体战略节奏也尚未成熟。
既是现金流限制,也是战略理念因素。
早年英伟达极少开展大规模对外战略投资,没有成熟的外部投资体系。
我一直默认,科技企业的常规发展路径,都是依托风险投资市场融资。
但大模型赛道完全打破了这套规则,OpenAI、Anthropic这类企业的发展需求,早已超出传统风投的承载能力,这也是它们选择绑定算力巨头的核心原因。
我如今完全理解这套逻辑,但当年认知存在短板。
即便如此,我也认可当下的行业格局,Anthropic 的存在丰富了行业生态,对全球 AI 发展具备积极意义。
主持人继续问:英伟达现金流持续暴涨,营收季度创新高,当下手握海量闲置资金。外界普遍好奇,英伟达该如何规划这笔巨额资金?当下行业诞生了大量中间服务商,专门承接算力重资产投入,为 AI 实验室提供算力租赁服务。高端芯片造价高昂,但大模型迭代能够持续提升tokens价值,算力集群的长期回报率极高。英伟达已经通过战略投资布局算力生态,为何不亲自下场,自建云服务、打造超大规模算力集群,直接入局超算企业赛道?
黄仁勋称:
这是英伟达长期坚守的企业哲学:有所为,有所不为,只做核心刚需业务,最小化业务冗余。
我们只深耕不可替代的核心领域:如果英伟达放弃研发加速计算架构、放弃互联生态搭建、放弃 CUDA 全栈布局、放弃长达二十年的长期技术投入,整个加速计算产业都会停滞不前,没有任何企业能够替代我们完成这些工作。
无论是光线追踪、图像生成、早期 AI 研发、数据处理、计算光刻等细分领域的专用软件库,都是英伟达长期自研沉淀的成果。
这些底层基础技术,没有商业企业会主动投入长期亏损式研发,而这正是我们的核心使命。
公有云服务赛道已经高度成熟,现有厂商完全能够满足市场需求,英伟达没有必要重复入局、冗余竞争。
我们的生态投资,核心目标不是跨界做金融、做云服务,而是扶持 AI 原生云厂商、新兴算力企业,完善产业生态。
助力 CoreWeave、Crusoe、Lambda 等新兴算力企业成长,能够丰富算力供给体系,扩大英伟达硬件的落地场景,巩固全行业生态优势。
同时我们坚持投资多元化基础模型企业,不刻意扶持单一头部玩家,不押注单一技术路线。
那么,为何坚持不挑选赢家、不绑定单一头部企业?
黄仁勋进一步解释:
第一,跨界垄断、定向绑定并非我们的企业使命。
第二,我亲身经历过行业洗牌,深知赛道格局充满不确定性。
英伟达初创时期,全球有 60 多家图形芯片企业,最终只有我们存活下来。
以当年的行业视角来看,英伟达的架构设计完全偏离主流,不被市场看好,几乎是公认的淘汰选手。
正是基于这段经历,我始终保持敬畏与谦逊:永远不要预判行业赢家,不要低估任何一家创新企业的潜力。
与其定向绑定,不如赋能全行业、扶持所有创新主体。
我们只会主动赋能有清晰商业模式、核心技术、创业热情与落地能力的企业。
新兴企业主动寻求合作、提出合理需求后,我们会通过技术支持、生态开放、适度战略投资,帮助其渡过初创瓶颈。
但我们不会跨界转型,不会亲自下场做金融放贷、做重资产运营。
市场有专业的金融机构、投资机构,英伟达的核心是做好算力底座、技术研发,与全行业合作伙伴协同分工。
只有在头部 AI 实验室这类关乎行业全局、具备战略价值的企业面临资金缺口时,我们才会启动大额战略投资。
所有投资动作,都是基于产业刚需,而非盲目扩张业务边界,始终坚守 “最少冗余” 的核心原则。
主持人则问了网上传闻:全球 GPU 短缺已经持续多年,AI 模型迭代进一步加剧了供需矛盾。业内普遍认为,英伟达的稀缺算力分配,并非简单价高者得,而是会刻意倾斜资源,扶持新兴 AI 云厂商,平衡市场格局。比如向CoreWeave、Crusoe、Lambda 等企业定向分配算力。想问问你是否认可这种说法?这种分配模式,对英伟达的长期价值是什么?
黄仁勋对此表示:
你的前提描述并不准确。
我们对算力分配、产能规划保持高度理性与审慎。
产能交付的核心前提是采购订单,所有硬件生产周期漫长,数据中心建设、整机部署同样需要周期。
我们的核心工作,是与全行业客户协同预判需求、同步产能规划,以供需平衡为第一目标。
在订单充足的前提下,整体交付遵循先到先得原则。
如果客户的数据中心尚未完工、配套设施不完善,无法快速落地部署,我们会动态调整交付顺序,优先保障具备落地条件的客户,最大化产能利用效率。
网络上流传的各类谣言毫无依据,比如我与马斯克、拉里会面,对方跪求 GPU 资源,完全是虚假信息。
会面属实,但从未出现索要、跪求算力的情况,所有合作都是基于正式采购订单推进,流程规范透明。
英伟达的产能分配体系,不存在特殊倾斜,核心就是订单优先、落地能力优先。
英伟达完全放弃价高者得的盈利模式。
单纯哄抬价格、随行就市涨价,是短视的商业行为,绝非长久之计。
我们坚持定价稳定、规则透明,确定售价后统一执行,不会因为供需失衡随意涨价。
芯片行业部分企业会在需求暴涨时上调价格,但这从来不是英伟达的经营理念。
我们的核心目标,是成为全球 AI 产业稳定、可靠的核心底座,让全行业能够稳定预判成本、规划发展,无需担心价格暴涨、资源垄断。
稳定、可预判、可持续,是英伟达的核心标签。
我们的技术迭代节奏完全可预期,一代代产品有序落地,节奏清晰。
放眼全球,没有任何一家ASIC芯片企业,能够给到客户如此稳定的长期技术承诺与迭代规划。
无论是百亿级超算集群,还是单台服务器、消费级显卡,英伟达都能提供稳定供货与技术支持。
我可以用同样的评价形容台积电:全球仅此一家,能够支撑超大制程产能、稳定交付先进芯片。
英伟达的核心使命,就是成为全球 AI 产业的基石,这份行业地位,是数十年持续投入与稳定经营沉淀而来。
谈中国市场:英伟达不会放弃竞争
这次,Dwarkesh Patel问了很多关于出口管制、英伟达在中国市场等话题,我拆解其中能放出来的信息点,简单用原文呈现黄仁勋对于中国市场的观点。
黄仁勋:
我们需要认清客观现实:中国掌握全球 60% 以上的主流芯片制造产能,科研人才储备雄厚,拥有全球半数以上的 AI 研究员。
单纯依靠芯片出口限制,无法彻底封锁科技的发展。
在这样的背景下,刻意对立、技术封锁,绝非全球安全的最优解。
美国的核心目标是保持技术领先,但理性的科研交流、行业对话,才是管控 AI 安全风险的关键。
当下中美AI研究领域的沟通近乎断裂,这是巨大的隐患。
双方需要共同划定AI技术的使用边界,明确网络攻防、漏洞挖掘等高危场景的约束规则。
漏洞挖掘本身是AI的正向应用,能够帮助企业修复安全隐患、提升系统防护能力。
未来必然会形成完善的AI安全生态:顶尖大模型之外,会诞生海量专用安全 AI 智能体,全方位监控风险、抵御恶意攻击。
开源生态、开源模型、开放技术栈,是AI安全体系落地的核心基础。
中国在全球开源生态、开源模型研发中贡献巨大,刻意打压、封锁,会破坏全球 AI 安全体系的构建。
聚焦中美竞争,美国需要最大化自身算力优势,但能源短缺是核心短板。
因此英伟达持续迭代高能效架构,用有限的能源,产出极致算力。
而中国的核心优势是能源充足、基建完善,即便制程相对落后,也能通过大规模集群堆叠,弥补单芯片性能差距。
我们绝对不能推动两套完全割裂的技术生态:一套美国主导、一套中国自主,这会成为美国科技长期发展的重大隐患。
美国保持领先、算力规模领跑全球,是必然目标,我们也在全力推动这一目标落地。
但无需极端化看待问题,中国并非零算力、零 AI 研发能力,现有算力储备,已经足以支撑高危模型的研发需求。
AI 是分层产业体系,能源、算力、算法、人才、应用层层关联。
美国能源稀缺,倒逼我们追求极致能效;能源充裕的地区,可以通过规模化硬件堆叠,抵消单芯片制程差距。
制程芯片的性能完全对标英伟达Hopper架构,而当下绝大多数主流大模型,本身就是基于Hopper架构训练落地。
中国充足的电力储备、空置数据中心、完善的硬件制造产能,都是不可忽视的核心优势。
单纯依靠制程封锁,无法从根本上限制 AI 技术发展。
而带宽与互联能力,并非只有先进制程一种解决方案。
更重要的是,顶尖算法人才的创新能力,能够突破硬件限制。
摩尔定律增速有限,但算法优化、架构创新能够带来数十倍的性能提升。
DeepSeek等中国开源大模型的快速迭代,已经证明了这一点。
如果未来大量优质开源模型,全面优化适配中国本土硬件,形成独立生态,会直接冲击美国技术栈的全球主导地位,这才是更大的长期风险。
模型一旦深度适配特定硬件架构,底层算子、计算逻辑都会深度绑定,跨平台迁移的成本极高、性能损耗巨大。
长期来看,模型生态会跟随硬件生态分化,这是行业客观规律。
英伟达的全球领先,正是依托软硬件深度适配的生态壁垒。
如果全球主流开源模型,优先优化本土硬件、脱离美国技术栈,美国的科技主导权会持续弱化。
跨架构适配必然伴随性能损耗,深度优化的原生架构,永远具备极致优势。
这是最基础的行业逻辑,英伟达的成功就是最好的佐证。
我们不能将芯片、算力简单等同于核武器、浓缩铀这类高危管控物资。
芯片是通用计算硬件,中国本身具备大规模自主制造能力,封锁无法实现绝对管控。
英伟达主动放弃中国市场,只会加速本土芯片产业迭代成熟,彻底脱离美国技术生态,这对美国芯片产业、科技领导力,才是更大的伤害。
不可否认,我们的硬件综合体验、生态完善度更优,但差距并非不可逾越。
长期出口管控,已经让英伟达在中国市场的份额大幅下滑,同时倒逼本土芯片企业实现突破,华为就是典型代表,出货量与营收创下历史新高。
主动让出全球第二大科技市场,牺牲美国芯片产业的全球竞争力,只为规避极端化的安全风险,得不偿失,更不符合国家长期利益。
没有最优选择时,用户会选择次优方案,这是基本市场逻辑。
英伟达的优势,是更好的生态、更低的开发门槛、更完善的全栈优化;
一旦彻底断供,对方只能依托本土硬件艰难发展,最终形成完全割裂的技术生态,这才是最大的隐患。
保持有限度的市场竞争,依托开放生态绑定全球开发者,才是维持美国技术主导权的关键。
当下全球半数 AI 开发者聚集在中国,主动放弃这批开发者、放弃庞大市场,是短视的战略决策。
计算生态的迁移成本极高,X86、ARM 能够长期主导市场,核心就是生态粘性。
英伟达数十年沉淀的CUDA生态,绝非短期能够复刻。
我们的核心战略,是持续优化产品、迭代技术,在开放竞争中守住优势,而非依靠政策封锁规避竞争。
封闭保守的思维,只会让美国科技产业丧失全球竞争力。
主持人问:那么,开放AI芯片进出口呢?
黄仁勋继续解释:
我认可短期的潜在风险,但需要正视长期的战略代价:
彻底封锁会倒逼对方完善自主生态,未来全球 AI 模型、开发标准、软件体系全面分化,美国技术栈的全球影响力会持续下滑。
AI 分为五层产业体系,任何一层的全面失守,都会引发连锁反应。
相比小众的高危模型研发,AI 应用层的全球主导权、科技标准制定权,战略价值更高。
过度放大单一安全风险、采取极端化管控,会阻碍 AI 产业良性发展,甚至引发全社会的 AI 恐慌。
就像当年医疗行业恐慌 AI 取代放射科医生,最终反而导致人才短缺,违背发展初衷。
看待产业问题,需要理性平衡短期风险与长期战略,拒绝非黑即白的极端思维。
制程迭代的性能差距,被严重高估。
从 Hopper 到 Blackwell,制程带来的硬件性能提升仅有 75%,而架构、算法、互联优化带来的能效提升达到 50 倍。
芯片半导体工艺只是底层基础,计算架构、软件生态、算法创新、高速互联,才是决定 AI 算力上限的核心因素。
单纯依靠先进制程封锁,无法限制 AI 发展,反而会倒逼对方探索差异化技术路线。
AI不会被替代,加速计算才是未来
黄仁勋坦言:
事实上,我最关注、也是最难解决的瓶颈,恰恰是基建工人、电工这类基础人力缺口。
这也能回应当下盛行的 “AI 取代人类、大规模失业” 的悲观论调。
如果全社会刻意劝退年轻人投身工程、技术类实操岗位,未来必然会面临严重的人才缺口。
十年前就有悲观论调宣称,放射科医生会率先被 AI 淘汰,这类言论至今仍在网络流传。
但现实恰恰相反:如今全球放射科医生缺口巨大,人力严重不足。
主持人继续问:英伟达已经垄断台积电 N3 先进制程的大部分产能,未来会进一步抢占 N2 工艺份额。在先进制程产能见顶的背景下,英伟达是否会反向复用老旧成熟制程,大规模复刻 Hopper 这类经典架构,通过成熟制程扩产,填补算力缺口?这套方案,能否在 2030 年前落地?
黄仁勋表示:
短期内无需复用老旧制程,每一代新架构的升级,都是全链路优化,不局限于晶体管密度。
封装技术、芯片堆叠、数值计算、系统架构的协同优化,能够持续挖掘算力潜力。
只有在先进制程产能彻底触顶、毫无扩张空间的极端前提下,我们才会考虑复用七纳米成熟制程复刻经典架构。
如果行业长期面临产能枯竭,我会毫不犹豫落地这套方案。
我们并非没有探索多元架构,所有差异化方案都会在内部仿真验证、对比测试。
最终没有落地的核心原因很简单:综合性能、成本、适配性,都不如现有架构。
我们会持续监控算力负载变化、行业需求迭代,随时调整研发方向。
近期我们已经新增 Grok 架构适配,纳入 CUDA 生态体系,丰富产品矩阵。
随着tokens价值提升、推理场景细分,行业诞生了全新的需求:高响应速度、低延迟的轻量化推理算力。
过往行业只追求高吞吐量,而当下实时交互、AI 智能体协作等场景,需要差异化算力支撑。
基于市场新需求,我们正在拓展算力产品边界,覆盖不同定价、不同性能的细分场景。
但核心主架构的研发,依然会集中资源、聚焦深耕,最大化研发效率。
最后,主持人问了一个灵魂问题:如果深度学习革命从未爆发,英伟达如今会是什么样子?
黄仁勋再次打起了广告:
即便没有 AI,英伟达的核心赛道也不会改变:加速计算。
公司创立的核心逻辑,就是看透通用计算的局限性:传统 CPU 通用性强,但在高强度、专业化计算场景效率极低。
我们通过 GPU+CUDA 架构,实现计算任务拆分,将高负载、高复杂度的算子卸载到加速芯片,实现应用数十倍、上百倍的性能飞跃。
加速计算的应用场景遍布各行各业:分子动力学、能源勘探地震模拟、粒子物理、流体力学、结构化与非结构化数据处理、计算机图形学等。
AI 只是加速计算的其中一个核心落地场景。
依托专业化加速计算,英伟达即便脱离 AI 赛道,也会成长为全球顶级的科技企业。
通用计算的性能天花板早已显现,细分场景的专用加速,是全球计算产业的必然趋势。
我们最早从游戏图形加速切入,逐步拓展全行业加速计算,底层使命从未改变。
AI 的诞生让行业发展加速,但英伟达的技术布局、底层研发,长期覆盖非 AI 场景。
参观 GTC 大会就能发现,演讲内容有大量计算光刻、量子化学、科研数据处理等非 AI 内容,这些业务常年稳定运转,具备极高的产业价值。
张量计算不是计算产业的全部,我们的使命,是用加速计算,赋能全行业科研与产业升级。
热门跟贴