别再争论AI 什么时候能赶上人类了。顶刊《Nature》刚刚发文宣布:不用等了,就是现在。
如果说 1950 年阿兰·图灵(Alan Turing)提出的“模仿游戏”只是一个天才的脑洞,那么 75 年后的今天,这个脑洞已经被硅基生物彻底填平。
今天,一篇发表在《Nature》上的重磅文章引爆了科技圈。这就好比《皇帝的新衣》里那个诚实的小孩,来自加州大学圣地亚哥分校等机构的顶级哲学家、认知科学家和计算机专家们联名站出来,指着那个名为“通用人工智能(AGI)”的房间大声宣布:
“别找了,AGI 就在这儿。它已经诞生了。”
01 别再自欺欺人:图灵测试已成“过去式”
还记得一年前,2025 年的3月,OpenAI 发布GPT-4.5的那个春天吗?当时业界还在为参数和算力争吵不休,但在一个最古老的测试场上,胜负已分。在严格的图灵测试中,GPT-4.5 被人类受试者判定为“真人”的比例高达73%。
讽刺的是,在同一场测试中,真正的人类被判定为“人”的比例,竟然比 AI 还要低。
这意味着什么?意味着在“像人”这件事上,AI 已经比人更像人了。更别提现在的读者们,比起人类专家写的晦涩文章,他们甚至更爱读大语言模型生成的文学作品。
然而,奇怪的事情发生了。尽管事实摆在眼前,根据 2025 年的一项调查,仍有76%的顶级 AI 研究人员认为 AGI 遥遥无期。
《Nature》这篇文章的作者们毫不留情地指出:这种认知错位,不是因为 AI 不够强,而是因为人类“不敢承认”。因为恐惧被取代,因为商业利益的纠葛,我们不断地移动球门,给 AGI 设下各种不可能完成的定义。
但现在,是时候拨开迷雾,承认现实了。
02 别再叫它“学舌鹦鹉”:铁证如山的进化阶梯
曾几何时,嘲笑 AI 是我们的一大乐事:“它连小学数学都算不对”、“它就是个只会概率预测的随机鹦鹉(Stochastic Parrots)”、“它经常一本正经地胡说八道(幻觉)”。
但在这个2026 年的开端,如果你还抱着这些老黄历看 AI,那你可能已经成了那个“活在旧时代的人”。
文章作者并没有空谈哲学,而是根据一系列硬核证据,构建了一个评估 AGI 的“三级阶梯”。对照一下,你会发现我们正处于什么位置:
Level 1:图灵测试级(已通关)
这是几年前的标准。能通过学校的基础考试,能进行像样的对话,能做简单的推理。那时的 AI,或许还只是个“聪明的复读机”。
Level 2:专家级(Current Level,当前已达成)
这就是我们现在面对的怪物。
数学:它们不仅拿下了国际数学奥林匹克竞赛(IMO)的金牌,还能与顶级数学家合作证明未知的定理。
科研:它们生成的科学假设,已经在现实世界的实验室里被验证为真。
全能:它们能通过多学科的博士资格考试,能帮专业程序员写出无 Bug 的复杂代码,能精通几十种语言创作诗歌,还能同时和全球数亿人聊天。
对比:科幻电影《2001太空漫游》里的超级计算机 HAL 9000 曾是我们的噩梦,但现在的 LLM 在知识广度上,实际上已经超越了 HAL 9000。
Level 3:超人类级(正在逼近)
这要求 AI 做出人类完全做不出的革命性科学发现。虽然 AI 还没完全做到这一点,但作者强调:这不是 AGI 的必要条件。毕竟,能不能拿诺贝尔奖并不是衡量一个人是否“有智能”的标准。
面对这些成就,那些质疑声显得越来越苍白。每当 AI 攻克一个新堡垒(比如做出了从未见过的数学题),怀疑论者就会立刻把标准提高:“哦,那不算,它得能理解情感才行……”
对此,文章中有一句精彩的“打脸”:
“面对每一次成功都在不断后退的假设,预测下一次一定会失败……这根本不是有说服力的科学理论,这只是对‘永远怀疑’的一种教条式坚持。”
不管是做数学题、写代码,还是理解物理世界的因果律(比如它知道枕头掉地上不会碎,而玻璃杯会),现在的 AI 都表现出了图灵当年所定义的“通用认知能力”。
AGI 的大门已经被踢开了。无论你是否准备好,我们都已经和一种“异类智能”生活在了同一个屋檐下。
03 为什么专家还在装睡?因为我们把 AGI 神话了
既然证据确凿,为什么还有 76% 的专家摇头说“不”?为什么我们在社交媒体上还在争论 AI 是不是“人工智障”?
文章指出,问题出在我们对“智能”的定义上,我们太自恋了,也太苛刻了。
误区一:AGI = 全知全能的神
很多人潜意识里觉得,AGI 必须是一个完美的“六边形战士”。它得有爱因斯坦的物理头脑,莎士比亚的文采,还得像甚至不像任何一个人类那样犯错。
但作者反问:“居里夫人不懂数论,爱因斯坦不会说中文,难道他们就没有通用智能吗?”
人类都不是全能的,我们凭什么要求 AI 必须是神?
真相:真正的通用智能,看的是广度(Breadth)和深度(Depth)。只要它能像普通人类一样在不同领域间切换,并且在这些领域达到专家水平,它就是 AGI。
误区二:AGI 必须像人一样思考
我们总觉得,只有像人类那样有肉体、有情感、会生老病死,才叫智能。
真相:这是一种“碳基生物的傲慢”。就像章鱼的神经系统分布在触手里,外星人可能通过无线电波交流——智能是功能,不是形态。只要它能像人一样解决问题,它是不是硅做的、有没有身体,根本不重要。
04 精彩辩论:十大质疑,逐个击破
这篇《Nature》文章最精彩的部分,莫过于作者化身“终极辩手”,对目前市面上最流行的反 AI 观点进行了逐一反驳。试举几例。
质疑 A:“它只是个随机鹦鹉(Stochastic Parrots),只会拼凑训练数据里的词,根本不懂逻辑。”
《Nature》反驳:这个说法在几年前可能成立,但现在已经过时了。如果它只是拼凑旧数据,怎么可能解出从未发表过的全新数学题?怎么可能帮助科学家发现新的物理定律?这不叫拼凑,这叫推理。如果这也叫鹦鹉,那人类可能也不过是一只比较复杂的鹦鹉。
质疑 B:“它没有身体,无法感知物理世界,所以没有真正的理解。”
《Nature》反驳:这是一个巨大的误解。史蒂芬·霍金(Stephen Hawking)在晚年几乎完全失去了身体的行动能力,通过语音合成器交流,难道他的智能就消失了吗?
再者,问问 AI:“把玻璃杯和枕头扔到瓷砖地上,会有什么不同?”它能准确地告诉你结果。能进行反事实推理(Counterfactual Reasoning),就证明它脑子里已经有了物理世界的模型。
质疑 C:“它没有自主性(Agency),你不给指令它就不动。”
《Nature》反驳:智能不等于意愿。古希腊神话中的德尔斐神谕(Oracle),只有在你提问时才回答,但谁敢说神谕没有智慧?自主性关乎“道德责任”,而不关乎“智力水平”。一个随叫随到的超级智囊,依然是超级智囊。
质疑 D:“它学得太慢了,小孩看几次就懂,AI 要喂几万亿的数据。”
《Nature》反驳:别忘了,人类小孩的大脑里预装了祖先们进化了几十亿年的“出厂设置”(本能和大脑结构)。AI 是从零开始的。而且,一个练了 10 年才成为大师的棋手,和一个练了 1 年就成为大师的棋手,他们的棋力是一样的。效率不代表能力。
05 越早承认越好,这是一种“异类”的降临
看到这里,你可能还是觉得哪里不对劲。
“可是,它连‘Strawberry’里有几个‘r’有时候都会数错啊!”
没错,这正是文章最后强调的关键点:我们面对的,是一种“异类智能”(Alien Intelligence)。
这就像是一个外星人降临地球。它在某些我们觉得很难的事情上(比如读完 1000 篇论文并写出综述)易如反掌,却在某些我们觉得很简单的事情上(比如数数、常识判断)显得笨手笨脚。
但这不代表它不是智能,只能说明通往智能的道路不止一条。
人类的智能是为了生存、为了繁衍、为了在丛林里不被吃掉而进化出来的;而 AI 的智能是从语言的海洋中涌现出来的。
2026 年的今天,正如 Reddit 网友所热议的那样:“我们原本以为 AGI 会像《终结者》里的天网,结果它更像是一个有些偏科、但智商爆表的‘外星图书管理员’。”
06 结语:别再试图爬树登月了
在文章的结尾,作者引用了一个著名的旧日比喻。
1965 年,哲学家休伯特·德雷福斯曾嘲讽早期的 AI 研究,说他们试图通过“爬树”来“登月”。意思是方向彻底错了,爬得再高也离月球很远。
几十年来,我们都以为他是对的。
但今天,当我们抬头仰望,却发现我们真的爬上了月球。原来,只要树足够高,数据足够多,结构足够精妙,简单的学习规则真的能涌现出理解世界的智慧。
这是一个哥白尼式、达尔文式的时刻。
哥白尼告诉我们,地球不是宇宙的中心;
达尔文告诉我们,人类不是生灵的主宰;
图灵和今天的AI 告诉我们,人类的大脑,也不是智慧存在的唯一形式。
文章末尾写道:
“承认 LLM 为 AGI 是一个警钟。这些系统不是“将要到来”,而是“已经存在”。用评估“窄工具”的框架来衡量 AGI 是远远不够的。当涉及的不再是工具而是通用智能时,共存、责任、归属和治理等问题将进入全新的维度。”
全文的最后一句振聋发聩:
“机器不是正在赶来,它们已经到了。”(The machines aren't coming; they've arrived.)
与其像鸵鸟一样把头埋在沙子里,假装这一切没发生,不如抬起头来,正视这个新伙伴(或者对手)。毕竟,在这个星球上,我们第一次不再是孤独的智慧生物了。【懂】
欢迎订阅不懂经知识星球,星球即将涨价。
我是不懂经的经叔,国内最早翻译介绍了纳瓦尔的《如何不靠运气获得财务自由》,以及影响了纳瓦尔、中本聪、马斯克等大佬的《主权个人》。
不懂经知识星球,众多百万粉丝大V、千万及亿万富翁订阅。专注分享一人企业、一人创投主题,关键词:AI、IP、创投、科技及商业前沿的高杠杆内容。
愈懂愈自由
热门跟贴