输入电子,输出Token,中间是英伟达。
编辑|蓝洞商业 赵卫卫
英伟达CEO黄仁勋接受播客主持人Dwarkesh Patel的深度访谈,一小时四十分钟的内容涵盖了行业竞争格局、AI商业化和中国市场等诸多问题。
谈到英伟达的定位时,他认为英伟达的业务本质是「将电子转化为Token」,其核心竞争力在于这一转化过程的效率与工程艺术,而非单一软件层面的商品化风险。
黄仁勋认为,英伟达的职责是,「必要之事尽力而为,力所能免之事绝不多做」,以此支撑这种转化以极致的性能实现。他认为的「绝不多做」意味着,凡是英伟达无需亲自完成的环节,都会与合作伙伴共建生态,交由生态伙伴落地。
此外,黄仁勋还提到,电力、内存、封装等上游瓶颈都能在2–3年内被行业集群式突破,唯一真正棘手的搭建、安装超大规模AI数据中心所必需的设施。英伟达的重要价值在于向整个供应链布道未来,促使上游CEO敢于下注大规模资本开支。
而对于竞争对手谷歌的TPU,黄仁勋认为谷歌TPU和亚马逊的Trainium增长100%来自Anthropic这一个客户,这是孤例,而非行业趋势。
事实上,谷歌和亚马逊AWS早期向Anthropic投入了数十亿美元,芯片使用是投资条款的一部分,这与其他AI公司的采购逻辑不同,而英伟达是通用加速计算平台,可运行分子动力学、量子色动力学、数据处理、流体力学等全领域工作负载。
本质上,这是英伟达对行业的一种明确表态:英伟达的真正护城河不是GPU性能本身,而是四重叠加,包括CUDA生态、装机基数、协同设计能力、供应链上下游塑造力,而任何只针对芯片性能的挑战都低估了系统。
更重要的是,黄仁勋明确反对当前的芯片对华管制政策,中国拥有全球50%的AI研究人员、60%的主流芯片制造、充沛的能源和大量空置数据中心,因而即使只使用7nm芯片,通过堆量也可弥补制程差距。
以下为经过编辑访谈核心要点:
AI 不会使英伟达商品化甚至同质化
问:我们已经看到许多软件公司估值崩塌,原因是市场预期AI将使软件商品化。本质上,英伟达制造的是软件,由其他人来做物理制造。如果软件被商品化了,英伟达是否也会被商品化?
黄仁勋:归根结底,某种东西必须将电子转化为Token。将电子转化为Token、并使Token随着时间推移变得更有价值——这一过程很难被彻底商品化。
从电子到Token的转化是一段令人惊叹的旅程。制造一个Token,就像让一个分子比另一个分子更有价值、一个Token比另一个Token更有价值。其中所蕴含的艺术性、工程、科学与创造,我们正在实时见证它的发生。这一转化、这一制造过程、以及其中涉及的科学,远未被深入理解,这段旅程也远未结束。我不认为英伟达会被商品化,当然,我们会让它变得更高效。
我对公司业务的心智模型是,输入是电子,输出是Token,中间是英伟达。我们的职责是「必要之事尽力而为,力所能免之事绝不多做」,凡是不必自己做的,就与合作伙伴共建生态。
我也不认为企业软件公司、工具类公司会被商品化。今天大多数软件公司本质上是工具制造商,Excel是工具,PowerPoint是工具,Cadence、Synopsys都是工具。
Agent的数量将指数级增长,工具使用者的数量也将指数级增长。新思科技的设计工具的实例数量将暴涨,因为会有大量Agent在使用布图规划器、布局工具、设计规则检查器。今天我们受限于工程师数量,明天这些工程师将被大量Agent支撑,我们将以前所未有的方式探索设计空间。
供应链和护城河
问:据最新披露,英伟达对晶圆厂、存储、封装的采购承诺接近1000亿美元,实际规模将达2500亿美元。一种解读是英伟达真正的护城河,是锁定了未来数年稀缺组件的产能,即使有人做出了竞品,他们是否能拿到内存和逻辑产能,这是否是英伟达未来几年的关键护城河?
黄仁勋:这是我们能做、而别人难以复制的事情之一。我们在上游做出了巨大的承诺,有些是显性的,有些是隐性的——我们的供应链自己投入了大量资本,因为我告诉这些CEO:「让我告诉你这个行业会有多大、为什么会这样、让我与你一起推演、让我给你看我看到的。」
正因为这一「告知、启发、对齐」的过程,上游不同行业的CEO们才愿意投资。为什么他们愿意为我投、而不是为别人投?因为他们知道我有能力消化他们的产能,并通过下游销售出去。英伟达的下游供应链与下游需求如此庞大,他们才愿意在上游投入。
在GTC大会上,所有人都为规模与参与者所惊叹。这是全360度的AI宇宙,所有人齐聚一堂。他们需要彼此见面,我把他们聚到一起,让下游看到上游,上游看到下游,所有人一起看到AI的进展:更重要的是,让他们亲眼见到AI原住民、所有AI初创公司以及正在发生的所有精彩。我花大量时间,直接或间接地向我们的供应链、合作伙伴、生态系统传达我们面前的机会。
有人常说:Jensen,大多数主题演讲都是一个接一个的发布。但我们的Keynote总有一部分近乎教育。事实上这正是我的意图:我必须确保上游与下游整条供应链、整个生态都理解即将到来的一切:为什么来、何时来、规模多大,并能像我一样系统地推理。
关于你所说的护城河——我们有能力为未来而建。如果未来几年我们的业务规模是1万亿美元,我们有供应链去支撑它。没有我们的触达能力、没有我们业务的velocity,就没有今天的一切。有现金流、就有供应链流(churns)。如果供应链流转效率低,没人会为一个架构去建供应链。我们能维持这种规模,只因为下游需求如此巨大。
行业竞争格局变化
问:若看谷歌TPU,全球前三大模型中可能有Claude、Gemini两个是在TPU上训练的。这对英伟达意味着什么?TPU专为矩阵乘法的大型脉动阵列优化,没有为线程调度、分支、内存切换而浪费芯片面积。对于当前主要由矩阵乘组成的AI负载,这是否比GPU更有针对性?
黄仁勋:我们做的是完全不同的东西。英伟达做的是加速计算,不是张量处理单元。加速计算用于分子动力学、量子色动力学、数据处理、结构化与非结构化数据、流体力学、粒子物理——此外才用于AI。英伟达重塑了计算方式,从通用计算转向加速计算。
我们的业务覆盖范围,是任何TPU或专用ASIC都比不了的。我们的GPU系统从设计之初就考虑了通用性,不管是谁,只要想做算力业务,都能直接用我们的设备,但很多公司自研的专用芯片系统,只能自己内部用,从一开始就没设计成能给别人用的灵活架构。
正因为通用性强,现在所有主流云厂商的平台上都有我们的GPU,不管是Google、AWS、Azure还是OCI,都能买到。不管是像xAI那样自己搭集群跑模型的客户,还是礼来(Eli Lilly)这样要建超算做药物研发的药企,我们都能支持。
矩阵乘法是AI里很核心的运算,但它绝对不是AI的全部。要是你想搞出新的注意力机制,采用新的算力解耦方案,或者干脆发明全新的模型架构,比如把状态空间模型(SSM)和其他技术结合的混合方案,就必须用能灵活编程的通用架构。哪怕你想把扩散模型和自回归模型的技术结合起来,也得靠这种通用能力才能实现。
市面上任何你能想到的AI计算任务,我们的GPU都能跑通 ,这就是我们的核心优势,能让研究者轻轻松松搞出新算法。而TPU这类专用芯片,和其他硬件一样,只能靠摩尔定律每年挤25%左右的性能;要想实现10倍、100倍的性能飞跃,必须靠算法和计算方式的底层革新,这才是英伟达真正的护城河。
我第一次宣布Blackwell架构的能效比Hopper高35倍的时候,没人信。后来行业人士证实,我实际留有余量 ,实际能效提升能到50倍,光靠摩尔定律根本做不到这种级别的提升。
我们靠的是多方面的创新:MoE(混合专家模型)这类新模型、并行计算、算力解耦和分布式架构,靠CUDA编写新的核心计算函数,再加上软硬件极致协同设计,把部分计算任务放到NVLink高速互联和Spectrum-X网络里处理,才拿到了这种性能飞跃。
英伟达的边界和错失
问:报道说英伟达投资OpenAI 300亿美元,Anthropic投入约100亿美元,为什么不早投资,你早已经看清了方向。英伟达为什么不做AI智算云(Neocloud)?
黄仁勋:只要我们有能力做,就立刻去做,要是能更早,我肯定会更早行动。当年Anthropic找我们投资的时候,我们既没那个能力,也根本没往这方面想。一方面是投资规模的问题,我们那时候从来没做过对外投资,压根没意识到还需要做这件事。我当时还以为,他们跟其他公司一样,找风投就能解决资金问题。
但他们要做的事,根本不是风投能扛得住的。没有哪家风投会往一个前途未卜的AI实验室投50到100亿美元,除非他们后来做成了Anthropic这样的规模。
他们早就看清了这一点,这就是他们的厉害之处。我当时没看到这一层,但现在绝对不会再犯同样的错。我很庆幸能投资OpenAI,还支持它扩大规模,这一步非常关键;后来Anthropic再找我们的时候,我也很乐意成为他们的投资人。
「必要的事尽力做,非必要的事绝不做」(do as much as needed, as little as possible),这也是我们公司的哲学。
我们之所以要搭建计算平台,是因为这件事要是我们不做,就没人会去做——不管是NVLink、全栈技术,还是20年来持续亏损投入的CUDA,还有CUDA-X旗下的各类领域专用工具库(比如cuLitho、光线追踪、图像生成、向量/结构化数据处理等等),这些事换别人,根本不会去做。
但云业务不一样,世界上有那么多云厂商,我们不做,总会有人做。
要是没有CoreWeave,这些新兴云厂商(Neocloud)也不会出现;Nscale、Nebius这些厂商,也是一样的道理。我们从不挑选行业赢家 ,30年前,有60家做3D图形的公司,当时看这份名单,没人会觉得英伟达能活下来。我们最早的图形架构完全走错了方向, 我一直记着这一点,也始终保持谦卑。
GPU 分配和台积电的关系
问:在 GPU 长期缺货的情况下,英伟达是怎么分配稀缺算力的?是不是谁出价高就给谁?
黄仁勋:我们从来不会这么做。我们定好价格,客户自己决定买还是不买。芯片行业里有些公司会在需求高涨时涨价,但我们不会。你可以完全信赖我们——我更愿意做整个行业稳定可靠的基石。我报给你的价格,就是最终价格。
我们的分配原则就是先到先得,依据是采购订单(PO)以及客户的数据中心是否就绪。如果你不下单,说再多都没用。如果你的数据中心还没建好、关键部件没到位,无法立刻上架使用,我们可能会先把产能交给其他就绪的客户,这样做只是为了最大化工厂的出货效率。
顺便澄清一件事——网上传拉里・佩奇、埃隆・马斯克和我共进晚餐恳求GPU的故事,完全没有发生过。晚餐确实有,气氛也很好,但他们从来没有求我给GPU,他们只需要正常下采购订单就行。
英伟达和台积电合作已近30年,我们之间甚至没有正式的法律合同,靠的就是一种大致的公平与默契。有时候我占优,有时候他们占优;有时候我拿到更好的条件,有时候则相反,但整体合作关系极好,彼此完全信任、完全依赖。
你可以完全信赖英伟达每年的产品节奏:今年是AI超级芯片平台Vera Rubin,明年是Vera Rubin Ultra,再下一年是Feynman,之后还有尚未公布名称的新品。你可以像相信钟表一样笃定 ,每年你的Token成本都会实现数量级的下降。
我刚才也说到台积电,历史上没有任何一家晶圆代工厂,能让你给出这样的评价。你可以来找我们买10亿美元、1亿美元、1000万美元的AI工厂算力,也可以只买一个机架、一张显卡;你甚至可以下1000亿美元的超级订单。当今全球只有我们两家公司能做到这一点。
台积电我也可以给出同样的评价,想买一套设备,或是10亿美元的产能,都没问题,我们只需要走规划流程,用成熟行业的方式推进就好。
中美AI 研究应该对话
问:为什么不应该对中国进行芯片出口管制?
黄仁勋:中国承担了全球60%以上的主流芯片制造,他们拥有全球一些最优秀的计算机科学家,所有AI实验室里大部分AI研究人员都是中国人,全球50%的AI研究人员来自中国。
我认为开展对话,尤其是研究对话可能才是最安全的做法。正因为目前的竞争状态,这一领域的缺失格外明显。AI研究人员之间必须对话,必须共同界定「AI不应用于什么」。
有一点一直被低估:围绕网络安全、AI网络安全、AI安全、AI隐私与AI安全治理的生态体系。有一大批AI初创企业正在共同构建这样的未来:一个核心超级智能体的周围,会有成千上万个AI智能体为其保驾护航,保障它的安全与可控。这样的未来必然会到来。
如果放任一个AI智能体不受任何监管地运行,这种想法本身就很不理智。因此我们必须确保开源生态保持活力,这一点绝不能忽视。而大量开源创新都来自中国,我们不应该扼杀这种活力。
AI是一套五层架构,最底层就是能源。能源充沛,就可以弥补芯片性能的不足;芯片数量充足,也能弥补能源的短缺。
举个例子,美国的能源供应相对紧缺,这也是为什么英伟达必须持续升级架构、进行极致的软硬件协同设计,即便我们出货的芯片数量有限,受制于能源规模,也能实现极致的每瓦算力。
但如果能源供应极度充沛、成本几乎为零,谁还会在意每瓦算力的高低?即便用老旧芯片也足够实现目标。7nm芯片的能力已能对标Hopper,完全满足训练需求。今天主流大模型大多基于Hopper架构训练。因此7纳米芯片完全够用,充沛的能源就是他们的核心优势。
但随之而来的问题是,他们真的能生产出足够多的芯片吗?答案是可以。证据是什么?华为刚刚创下史上最佳年度业绩,其芯片出货量达数百万颗,远超Anthropic所使用的芯片总规模。
热门跟贴