新智元报道
编辑:Aeneas
【新智元导读】就在刚刚,陶哲轩po文揭秘:当前的AI无法实现真正的AGI,不过,他们倒是拥有一些有用的小聪明,或者可以说「通用狡猾」。而就在同时,又一多年数学难题被GPT-5.2 Pro攻克了。
就在今天,即将离职Meta的LeCun再次给当前AI判死刑——这条路行不通,而且永远不会成功。
前不久,谷歌DeepMind首席科学家Shane Legg给出预测:最小AGI有50%的可能性在2028年实现。
业界都在讨论的AGI之争,陶哲轩是如何看待的?
就在刚刚,陶哲轩po文明确了自己的态度——还不行。
他认为,目前还无法实现AGI。
我怀疑目前工具还无法实现真正意义上的「人工通用智能」。然而,我认为一种较弱但仍然非常有价值的「人工通用才智」,正在以各种方式成为现实。
而他的观点,立马在网上引起了广泛讨论。
网友们表示,陶哲轩这样聪明的人,都认为AGI并未实现,这样太令人绝望了——希望他是错的吧。
陶哲轩:不是AGI,只是魔术师
什么叫通用才智?
陶哲轩是这样解释的。
「通用才智」是指通过某种临时手段解决广泛复杂问题的能力。
这些手段可能是随机的,也可能是暴力计算的成果;它们可能缺乏根基或容易出错;它们可能难以解释,也可能能追溯到AI训练数据中类似的技巧。
因此,它们不能被视为任何真正「智能」的结果。
然而,它们在实现日益广泛的任务时,可以拥有非同寻常的成功率,尤其是在结合严格的验证程序以过滤掉错误或不具前景的方法时,其规模已超出了单个人类所能达到的范围。
可以理解为,这是一种「通用狡猾」AI。
而这种「通用狡猾」AI,就会让人感觉非常匪夷所思。
比如在有时候,这些技术非常实用,令人印象深刻,然而从根本上说,它却令人不满和失望。
AI是「最强大脑」魔术师?
想象这样一个场景:一位魔术师上台,凭空变出鸽子、猜中你选的牌、把水杯变成金鱼。全场掌声雷动,观众目瞪口呆。
结果他平静自曝:「其实我袖子藏了十八个机关,桌下有暗格,牌是特制的,金鱼是提前藏好的。」掌声戛然而止。
如今的AI,就像这位魔术师一样。
它能写诗、编程、解数学题——但如果你问它:「你是怎么想到这个答案的?」
它可能会诚实坦白:「我在训练数据里见过类似题目,概率上这个回答匹配度最高。」
所以,这其实不是智能,而是基于海量数据的「聪明把戏」。
「通用狡猾AI」,反而起了大作用
对于这种「通用狡猾AI」,陶哲轩是怎么解释的。
虽然聪明才智和智力在人类身上是某种程度上相关的特质,但对于AI工具(这些工具通常被优化以追求聪明才智)来说,它们却更加解耦,将当前一代这样的工具主要视为一个随机生成有时聪明,且往往有用的思想和输出的生成器,在尝试使用它们解决难题时,可能是一种更具生产性的视角。
也就是说,智能≠聪明。
对人来说,二者是同时存在的;但对于AI而言,所谓的「聪明」,也就是快速解决复杂问题,可以独立存在。
当前AI的「聪明」,是随机的,暴力的,可错的,难解释的。
最终,它并不是靠智慧取胜,而是靠「大规模试错与匹配」,就像用超级望远镜,在答案星海里捞最亮的几颗。
当今的AI,并不是全知全能,然而这个「不够智能但足够聪明」的工具,却已经悄悄改变知识工作的每一个环节。
对于陶哲轩的说法,网友们表示的确如此。
对于目前的AI来说,看似便利但难以预测的思想,似乎是一种主要应用场景。
可以说,陶哲轩所说的,就是目前AI能力「参差不齐的边界」。
甚至评论区还出现了中文留言,认为目前的AI底层架构就决定了,即使投入无限多的算力,产出的东西也依然有边际。
而在Reddit的帖子中,网友们也对此展开热议。
有人对表示,自己非常尊重陶哲轩,但对他的部分观点表示反驳。
有人说,他用「狡猾」或「巧妙」一词,来针对现代LLM缺乏系统性思维的缺点。
目前,他或许是对的。不过,ChatGPT还只有3岁,如果要宣布所有LLM都有此局限,至少还应该再等待十年。
又一数学难题被AI破解
巧的是,就在陶哲轩发出这个论点不久,又有一道数学难题被AI破解了!
滑铁卢大学计算机系的助理教授Kimon Fountoulakis激动发帖称,GPT-5.2刚刚解决了COLT 2022开放问题——
使用标准加速梯度算法和互补性边界假设,证明加速L1正则化PageRank的运行时间复杂度。
其中,所有证明都由GPT-5.2 Pro生成。算法总工作量的关键界限,则是使用 GPT-5.2 Pro、Aristotle和Antigravity上的Gemini 3 Pro (High) 组合完成了自动的形式化。
多伦多大学的教授Daniel Litt也出来表示,GPT-5.2 Pro的确很强,它对于自己的代数几何和数论研究,都产生了巨大飞跃。
悬赏8年难题,GPT-5.2用数学证明封神
这道难题,已经困扰了教授8年。
自2024年以来,每次OpenAI或谷歌发布一个新模型,他都会拿过来尝试一下。
令人没想到的是,这一次,GPT-5.2竟然成功了!
教授这样回忆道:这个开放性问题,我们尝试了三年,失败了;找博士生做,也失败了;问了多位顶尖学者,都说太难了。
2022年,这道关于「加速L1正则化PageRank算法时间复杂度」的难题,被正式列为COLT国际顶级会议的开放问题之一,悬赏求解。
谁也没想到,两年后,这道难倒无数学者的题目,竟被GPT-5.2悄然攻克。
悬赏
故事要从2016年说起。当时,教授在优化PageRank算法时发现,经典迭代软阈值算法在求解带L1正则的PageRank问题时,其运行时间竟然只与最终解的非零节点数有关,出奇地高
一个很自然的追问随之而来:如果用上加速算法,比如在优化领域声名显赫的FISTA,会不会更快?
理论上应该如此。但现实却泼了一盆冷水:FISTA在迭代过程中会「激活」大量本应为零的节点,虽然最终能收敛到正确的稀疏解,但中间过程却很铺张浪费。
开始,教授尝试了三个月,想从理论上界定FISTA的总计算量,失败了。后来断断续续又试了几次,直到2021年,无论是教授最杰出的学生,还是几位大牛研究者,都对这个问题束手无策。
团队决定,将这个难题公之于众。
2022年,它被正式列为COLT的开放问题,向全球机器学习社区发起挑战。
破局
第一个成功的解法,出现在2023年。David Martínez-Rubio等人提出了一种新颖的加速算法,从完全不同的角度给出解答。
然而,这个算法为了达到加速效果,需要在每一步求解一个昂贵的子问题,在实际应用中效率很低。
直到GPT-5.2发布后,真正的转折点来了。
这一次,GPT-5.2给出了完整的证明。
而且令人震惊的是,它给出的恰恰是针对经典FISTA算法的证明。
它揭示了在一种被称为「互补性边界」的合理假设下,FISTA的总计算量可以被优雅地界定,并且在特定的图结构上,能展现出明确优于经典算法的加速效果。
更关键的是,这个证明解释了长期困扰学界的现象:尽管FISTA在迭代中会激活更多节点,但这些「多余激活」是可控的、暂时的。一旦迭代进入最优解的一个邻域,算法就会迅速收敛。
怎么证明?三重验证
GPT-5.2的证明能令人信服吗?为此,团队搭建了一个三重验证体系。
首先,GPT-5.2 Pro生成了完整的证明初稿。
接着,团队借助@HarmonicMath的Aristotle系统,结合Gemini 3 Pro模型,将证明中的关键不等式和复杂度上界,逐行转化成了形式化的Lean代码。
而且除了形式化验证之外,教授自己也把证明从头到尾证明了两遍。目前看来,证明是没问题的。
陶哲轩会被说服吗
又一数学难题被GPT-5.2 Pro攻克,这不由得引起网友讨论——
它会成为AGI吗?陶哲轩会看到希望吗?
至少,目前GPT-5.2再一次证明了LLM在深度数学推理上的惊人潜力。
而且,它也弥合了理论分析与实际算法之间的鸿沟。它的证明,为最经典的加速算法提供了缺失的理论基石。
当然,这并不意味着AI能取代理论科学家。
可以说,它更像是一个拥有惊人直觉和不知疲倦的协作者。
人类提出关键问题、界定框架、判断价值,AI则能在庞大的数学空间里,帮我们找到那条通往答案的隐秘小径。
参考资料:
https://mathstodon.xyz/@tao/115722360006034040
https://x.com/kfountou/status/2000957773584974298
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!
热门跟贴