【导读】AI教父、2024年诺贝尔物理学奖获得者、2018年图灵奖得主杰弗里·辛顿(Geoffrey Hinton)首次现身中国,今天在上海世界人工智能大会(WAIC 2025)上探讨数字智能与生物智能的差异,指出AI因具备永生与高效共享而快速超越人脑。他警示,若无全球安全协作,超级智能或将反噬人类。辛顿提出通过AI安全研究所联盟与技术栈分离,推动AI向善发展。

要点:

·人类有可能就是大语言模型,人类也会和大语言模型一样有幻觉。

·但大语言模型远远优于(类比信号驱动的)人类大脑。

·人类将自己所学的知识永久保留很困难,比如大脑死亡之后,存储的知识相当于消失了;或者向外传递也很低效,比如知识只能通过说话等形式向外传递,不能完全copy。

·但是AI通过共享参数就能快速传递,比如使用蒸馏,DeepSeek就是这么做的。

·如果独立智能体完全共享一组权重,并以完全相同的方式使用这些权重,他们就能实现知识彼此传递,而且一次就是数十亿乃至数万亿比特的带宽。不过这要求所有智能体的运作方式必须完全一致。

·人类和AI的现状,就好比养了一只非常可爱的小虎崽。当它长大后,可以轻易干掉你。为了生存,要么摆脱这只小虎崽,要么找到一种方法可以永远保护自己。

·我们已经不可能消除AI了,它能使几乎每个行业大幅提效。哪怕有国家想要消除,其他国家也不会这么做。

所以,呼吁世界建立一个由各国人工智能安全研究所与国内研究网络组成的国际社群,培养出不会从人类手中夺权的好AI。

数字智能是否会取代生物智能

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

【新智元解读】Hinton直指数字智能凭借「永生」与高带宽共享,正加速超越人类大脑。

若缺乏全球安全协作,「超级智能」可能反噬创造者,人类或需在「放虎归山」与「驯虎为友」之间做出抉择。

· 数字 VS 生物:优势对比一针见血

知识共享效率:神经网络一次权重复制即可传递数十亿比特信息;人类语言教学每句话仅百比特。

硬件依赖:数字模型可在任何芯片「永生」,而人类智慧随个体消亡。

能耗差异:生物计算节能,但若能源充裕,数字计算的「规模化迭代」更具绝对优势。

· 从逻辑启发到生物启发:范式大迁徙

Hinton回溯过去AI发展30年历程:逻辑启发重符号推理,学习被搁置;

生物启发聚焦神经网络,用高维「乐高积木」思维方式类比大语言模型理解世界;

Transformer出世,OpenAI证明LLM智能的威力。

· 超级智能的「子目标效应」

为完成主任务,AI自发衍生「生存」与「夺权」子目标;

通过学习人类欺骗与操控技巧,AI或轻松绕过「关闭按钮」;

人类「养虎」隐喻——小虎崽终会长成捕食者。

· Hinton给出的生存路线图

全球AI安全研究所联盟:各国共研「向善技术」,不必公开最尖端模型。

分离两条技术栈:让AI变「善」与变「强」可以并行不泄密。

这就像教导孩子成为一个好人的方法,与让他们变得聪明的方法是相对独立的一样。

如果这个观点是正确的,各国就可以设立资金充足的人工智能安全研究所,专注于研究如何让AI不想夺取控制权。

这样,各国应该能够在不透露其最智能AI如何运作的情况下,共享使AI向善的技术。*