新智元报道
编辑:Aeneas 定慧
【新智元导读】诺奖得主Hassabis,刚刚给AGI一个新定义——爱因斯坦测试!能在4年内推导出1915年广义相对论的,才算真正的AGI。马斯克立即来反驳了:人类集体都没独立重现相对论,要是AI真能做到,那就不是AGI,而是「超神」了。但无可否认:AGI,真的超近了!
就在刚刚,诺奖得主、谷歌DeepMind掌门人Demis Hassabis重新定义了AGI。
2026年2月,在印度AI峰会上,Hassabis给AGI下了一个极其硬核的定义——
「爱因斯坦测试」:把AI的知识库卡死在1911年之前,看它能不能像爱因斯坦一样,独立推导出1915年的广义相对论。
能做到?恭喜,你就是AGI。
做不到?那你就还是个高级搜索引擎。
Hassabis这样说,是因为在1911年,爱因斯坦开始严肃思考引力与加速度的问题(提出等效原理深化版本)。1915年11月,他正式发表了广义相对论场方程。
从系统性构思到完整理论成型,大约4年时间。
显然,Hassabis的这个测试,不是在考AI的知识量,而是考它的原创科学发现能力——能不能在已知信息的边界上,跨出那一步「无中生有」的飞跃。
网友们纷纷表示,这才是第一个真正有意义的AGI定义。
Hassabis还补了一刀:
目前所有的AI系统,包括他自己家的Gemini,都是「参差不齐的智能」(jagged intelligence)——某些方面超强,另一些方面却一塌糊涂。
离真正的AGI,还差至少一两个关键突破。
甚至有人畅想:如果这个AI足够强大,或许发现的不仅仅是广义相对论,而是更先进的理论。
马斯克秒回怒怼
你这不是AGI,这是超级智能
消息一出,马斯克几乎是秒级回应。
他的看法是:「Hassabis定义的不是AGI,而是超级智能(superintelligence)。」
马斯克的逻辑很清晰——
爱因斯坦是人类有史以来最顶级的物理学家之一。全人类集体加在一起,也没有独立重现相对论的能力(毕竟是爱因斯坦一个人干的)。如果一个AI做到了,而且这个AI还能被无限复制、百万级别地并行运行……
那这玩意儿早就不是「人类水平」了,这是碾压全人类的存在。
马斯克的意思很明确:你把超级智能的门槛当成了AGI的及格线,这属于标准错位。
不管Hassabis和马斯克的争端究竟谁更有理,不可否认的是,圈内大佬一致预测——AGI,离我们很近了!
注意,Demis Hassabis最近缩短了自己的AGI时间线,在以前,他对于比较保守(5到10年)。
但现在,他的原话是:「现在,到了2026年,我们正处于另一个AGI即将到来的临界点——也许在未来五年内」。
OpenAI CEO奥特曼预计,AGI将在2028年实现。「如果你现在是大二学生,你毕业时就会进入一个有AGI的世界」。
在最近的一个活动上,奥特曼还这样说:「光看我们现有的技术在内部加速,我觉得已经很接近了。鉴于我现在预期的更快起飞,我认为超级智能并不遥远。」
他再次强调:我们可以期待,OpenAI在2028年底实现AGI/ASI。
即使是AGI「怀疑论者」Francois Chollet,也认为AGI能在2030年实现,还有四年。
微软CEO Suleyman则直接预测:距离「大多数甚至全部」白领岗位被AI取代,还有12到18个月。
那么,AGI到底应该如何定义?
回到原点:AGI这个词到底是谁发明的?
其实,「通用人工智能」(AGI,Artificial General Intelligence)这个概念的历史比很多人想的要短得多。
1950年,图灵提出著名的「图灵测试」。
如果一台机器能让人类在对话中分不清它是人还是机器,就算它有智能。
这是AI领域最早的标杆。
但图灵测试被后来的研究者广泛批评——它只测了「模仿能力」,没测真正的理解和创造。
1956年,达特茅斯会议正式开启AI这个学科。
当时的先驱们——麦卡锡、明斯基、西蒙——狂妄地预言:20年内机器就能做到人类智慧的任何事。
结果?等来的是两次「AI寒冬」。
1997年,一个叫Mark Gubrud的美国学者,第一次在学术讨论中使用了「Artificial General Intelligence」这个词。他当时讨论的是全自动化军事系统的未来。
2007年,Ben Goertzel在Shane Legg的建议下,出版了一本名为《Artificial General Intelligence》的书,把这个概念彻底推向主流。
从此,AGI成了AI领域最重要的概念锚点——它划出了一条线:一边是「能做特定任务的窄AI」,另一边是「像人类一样全面思考的通用AI」。
而「超级智能」(Superintelligence)这个概念,则由牛津大学哲学家Nick Bostrom在2014年的同名著作中系统定义:
在几乎所有人类关心的认知领域,都远超人类最强大脑的智能体。
Bostrom还细分了三种超级智能——
-速度型:跟人一样聪明,但快10万倍。
-质量型:不只是快,而是在思维深度上碾压人类。
-集体型:百万个AI协同工作,集体智慧远超人类文明总和。
马斯克怼哈萨比斯的逻辑恰恰就在这里:一个能独立推导相对论的AI,如果还能被百万级复制——那不就是Bostrom定义的「集体超级智能」吗?
那么,我们距离AGI到底还有多远?
15年后,AI能完成人类580亿年任务!
显然,每位大佬定义的AGI根本不是同一个东西。
马斯克的标准最低:能考试、能开车、能编程,就算AGI。本质上就是「全能AI助手」。
Sam Altman搞了个五级框架:从Level 1(会聊天的ChatGPT)到Level 5(能独立运营一家公司的AI)。目前他认为我们在Level 2和Level 3之间——AI已经能做初级推理,正在走向自主行动。
Yann LeCun最悲观(也可能最严谨):他认为当前的LLM架构存在根本缺陷——不理解因果、没有物理直觉、无法从真实世界经验中持续学习。要实现AGI,需要全新的「世界模型」范式,现有路线走不通。
而哈萨比斯的「爱因斯坦测试」恰恰戳中了一个最核心的问题:当前所有大模型的本质,都是模式匹配和信息重组。
像爱因斯坦一样,凭空提出一个全新并且可证明为正确的领先理论,目前没有任何现有AI能做到。
但无人可以否认,我们已经按下了加速键,并且再也回不去了。
最近,AI研究机构METR(Model Evaluation & Threat Research)发布评估称,前沿AI模型完成复杂长任务的能力呈指数级增长,大约每4个月任务长度翻倍。
这意味着AI不仅在答题准确率上进步,更在持续执行、复杂规划与跨步骤推理方面快速跃迁。
按这一趋势外推,华盛顿大学的研究员Yuchen Jin预测:到2041年,AI智能体理论上可完成一项人类需耗时580亿年的任务,远超宇宙当前约138亿年的年龄!
基于同样的逻辑,他提出了一个极具科幻感的观点:在15年内,AI 或许能通过「一次提示」(One-shot prompt)就生成一个像「新宇宙」级别复杂程度的结果。
他甚至开玩笑说,也许我们现在的宇宙就是这么被创造出来的。
奇点,真的近了
马斯克此前也在访谈中明确指出:我们正处于奇点中。
在他看来,我们会在2026年实现AGI。现在,我们正处于即将下去的过山车的顶端。根本不用攒钱退休,因为这个问题压根无关紧要。
奥特曼,也同样持这个观点。
或许有人认为他擅长炒作,但有一点他是对的:世界前沿的大公司内,一个普遍的共识就是,这个世界还没有做好准备。
AI模型已经变得越来越强大,而更多性能更强的模型,也即将推出。
起飞速度会比人们预期的快很多,这让人既紧张又焦虑。
这种翻倍增长的速度,已经远远超出人类历史上所见过的任何发展节奏。
无论我们愿不愿意,都正被不可逆转地拉向一个「机器之神」的时代。
除非发生卡林顿事件那样的全球性灾难,否则没有什么能够阻止这种指数级的扩张。
现在,眼看着这条曲线已经要起飞了,你,准备好了吗?
参考资料:
https://x.com/elonmusk/status/2025570252679967210
https://x.com/Tz_2022/status/2025314523788312602
https://x.com/chatgpt21/status/2024954923629318379
https://x.com/jawwwn_/status/2025103684774834482
热门跟贴