「AI创造就业,」英伟达CEO黄仁勋在米尔肯研究所活动上再次强调,「这是美国再工业化的最佳机会。」

这位芯片巨头掌舵人为何如此笃定?他的判断依据是什么?

打开网易新闻 查看精彩图片

2024年5月:一场关于「末日论者」的正面回应

黄仁勋与MSNBC主持人贝琪·奎克的对谈,发生在米尔肯研究所全球会议期间。这不是他第一次谈AI与就业,但措辞比以往更直接。

他点名批评了「AI末日论者」(AI doomers)。这些人描绘的图景包括:《终结者》式的AI统治地球,或AI摧毁部分经济体系。黄仁勋认为,这种叙事正在造成真实的伤害。

「我最担心的是,我们用科幻故事吓唬人,」他说,「吓唬到AI在美国变得如此不受欢迎,或者人们如此害怕它,以至于他们实际上不去使用它。」

这不是修辞上的反击。黄仁勋的逻辑很具体:恐惧会导致放弃,而放弃会让美国输掉这场竞赛。

核心论点:任务≠工作目的

黄仁勋对「AI取代人类」的反驳,建立在一个关键区分上。

他认为,很多人误以为「自动化某个任务」等于「消灭整个岗位」。这种混淆源于对「工作目的」与「工作任务」关系的误解。

「你必须把任务从工作的目的中分离出来,」这是黄仁勋此前的表述,在本次访谈中被再次强化。他的意思是:一份工作的价值不在于它包含多少可自动化的琐事,而在于它最终要达成什么目标。

AI接管的是「常规或无聊的任务」(routine or boring tasks),释放出来的时间让人类员工投入「更有吸引力的领域」。这不是岗位消失,而是岗位进化。

这个论点针对的是具体的担忧场景——当AI能写代码、能处理数据、能生成文案时,程序员、分析师、内容创作者是否还有存在必要?黄仁勋的答案是:这些职业不会消失,但工作内容会向上迁移。

「再工业化」的芯片行业视角

黄仁勋把AI定位为「美国再工业化的最佳机会」,这个判断需要放在英伟达的业务版图里理解。

再工业化意味着制造业回流、基础设施重建、能源网络升级。所有这些都需要算力,而算力需要英伟达的GPU。这不是单纯的利益相关——黄仁勋确实在描述一个他亲眼见证的供需循环。

AI驱动的工厂需要智能监控系统,需要机器人协作,需要实时优化供应链。这些应用场景正在创造新的岗位类别:AI训练师、数据标注质量审核、人机协作流程设计师、模型微调工程师。

英伟达自身的扩张就是案例。从芯片设计到软件生态,从数据中心到自动驾驶,每个新业务线都伴随着招聘而非裁员。

黄仁勋的乐观有数据支撑的背景:英伟达市值在2023年至2024年间突破两万亿美元,员工数量同步增长。这种增长发生在AI被普遍认为将「颠覆就业」的同一时期。

历史参照:技术恐慌的重复模式

黄仁勋的论述并非全新。每一次重大技术变革都伴随着类似的就业焦虑,而结果往往比预期更复杂。

19世纪纺织机出现时,卢德分子砸毁机器。但最终纺织业创造了更多岗位,只是技能要求不同。20世纪计算机普及初期,「无纸化办公」被预测将消灭文书工作,结果是办公岗位爆炸式增长。

黄仁勋的区分——任务自动化≠岗位消灭——正是基于这种历史观察。他暗示当前的AI恐慌是同一剧本的重演:人们高估了短期替代,低估了长期创造。

但有一个变量值得注意:AI的学习速度。纺织机和计算机的扩散以十年为单位,而GPT系列的能力跃迁发生在18个月内。黄仁勋没有直接回应这个差异,他的信心似乎来自对「任务-目的」框架的坚持——无论AI多快,它替代的是动作而非意图。

「末日论者」的具体所指

黄仁勋批评的「科幻故事」有具体指向。近年来,包括部分AI研究人员、科技评论人和科幻作家在内的群体,持续发布关于「通用人工智能」(AGI)风险的警告。

这些警告的范围从经济 disruption 到存在性风险(existential risk)。2023年,一封由数千名科技界人士签署的公开信呼吁暂停大型AI模型的训练,引发广泛讨论。

黄仁勋的回应策略是区分「技术风险」与「叙事风险」。他不否认AI需要安全监管,但他认为「吓唬人」的叙事本身已经成为阻碍发展的因素。

「人们不去使用它」——这个后果比技术失控更紧迫,在黄仁勋的评估中。因为竞争不会等待:如果美国因恐惧而迟疑,其他国家的AI部署不会停顿。