一场数学会议引发的AI核爆
2025年3月21日,美国联合数学会议的讲台上,Meta首席AI科学家杨立昆(Yann LeCun)掏出一份长达万字的“死刑判决书”——对象是硅谷狂欢三年的自回归大语言模型(LLM)。
“机器学习现在烂透了!”这位深度学习三巨头之一的图灵奖得主,用一句暴论撕开了GPT帝国的遮羞布:“当前AI连猫的物理直觉都没有,你们却妄想用它造出人类级智能?”
这场演讲像一颗深水炸弹,炸醒了沉迷于“AI取代人类”叙事的科技圈。当黄仁勋还在GTC大会上高呼“Token构成世界”时,杨立昆直接掀桌:“自回归模型注定淘汰!用预测下一个词的方法造AGI,就像用算盘登陆火星!”
第一部分:GPT的“皇帝新衣”——自回归模型的三宗罪
1. 指数级幻觉:一场文字瘟疫的诞生
“GPT不是智能体,而是高级复读机。”杨立昆的比喻辛辣刺骨。自回归模型的核心逻辑,不过是根据前文预测下一个词(Token)。这种机制存在致命缺陷:每个预测的微小误差,都会随着文本生成呈指数级爆炸。
“假设每个Token预测错误率仅0.1%,生成100个Token后,正确率就暴跌到37%——这就是为什么ChatGPT总在胡说八道!”更讽刺的是,AI根本无法意识到自己犯错。当它把“珠穆朗玛峰海拔8848米”错写成“884米”时,系统只会若无其事地继续编造。
2. 算力黑洞:用核弹打蚊子的荒诞剧
杨立昆抛出一组对比:回答“2+2=4”和证明“P=NP”消耗的算力完全相同。“这就像用核弹打蚊子,却用苍蝇拍对付航母!”自回归模型对所有问题“一视同仁”的暴力计算,暴露了其本质——它根本没有理解能力,只是概率游戏的傀儡。
更荒诞的是数据效率:GPT-4吃掉30万亿Token(相当于人类阅读50万年),却不如4岁孩童通过1.6万小时视觉观察掌握的物理常识多。当婴儿早已理解“物体不可穿透”时,AI生成的视频还在让杯子穿透桌面——这种差距不是数据量能弥补的。
3. 莫拉维克悖论:人类最易的,恰是AI最难的
“下围棋、写十四行诗被吹成‘智能突破’,但让AI收拾餐桌、开矿泉水瓶却成了世纪难题!”杨立昆搬出“莫拉维克悖论”直击本质:人类千万年进化出的物理直觉(如抓握、避障),对AI而言反而是地狱级挑战。
他举了一个让全场沉默的例子:10岁孩童能第一次就正确收拾餐桌,17岁少年20小时学会开车,但耗费万亿Token训练的AI,至今造不出能完成这些“简单”任务的机器人。这背后的真相是:语言只是世界的抽象符号,而AI缺乏具身认知——没有视觉、触觉、运动反馈的“纸上谈兵”,永远触及不到真实世界的暗知识。
第二部分:颠覆GPT!杨立昆的“反叛路线图”
1. JEPA架构:放弃生成,学会“抽象”
“视频预测?现有技术全是皇帝的新衣!”杨立昆痛批当前视频生成模型的本质缺陷:它们渲染逼真画面,却对物理规律一无所知。
他提出的JEPA(联合嵌入预测架构)彻底颠覆传统:不再预测每个像素,而是将当前状态与未来状态映射到抽象表示空间。例如,Meta实验显示,当视频中出现“物体凭空消失”时,JEPA模型的预测误差会飙升——这意味着它隐式掌握了物理常识。“AI必须学会抓大放小,像人类一样忽略无关细节!”
2. 能量基模型(EBM):给AI装上“系统二”
借用心理学中的双系统理论,杨立昆指出:当前AI只有快速直觉(系统一),缺乏深思熟虑(系统二)。他力推的EBM模型通过“能量函数”评估假设合理性,动态分配计算资源:简单问题快速解决,复杂任务深度思考。
“EBM能让AI像人类一样规划:从‘去巴黎’拆解到‘订机票-叫出租车-打包行李’,每一步都通过能量最小化寻找最优路径”。这种机制还能从底层杜绝“越狱”——通过预设安全约束(如机器人不得伤害人类),让AI无法生成危险方案。
3. 世界模型:婴儿才是AI的终极导师
“AGI必须像婴儿一样学习!”杨立昆的终极愿景是构建世界模型(World Model)——通过多模态感知(视觉、听觉、触觉)而非纯文本训练,让AI自主发现物理规律。他给出震撼对比:婴儿4年处理100TB视觉数据,与GPT-4的文本训练量级相当,但前者掌握了后者永远学不会的因果推理。
Meta最新进展显示,采用JEPA+EBM架构的机器人已能通过观察人类动作,理解“推门需要持续施力”而非“单次碰撞”。这种“直觉物理学”的突破,或许才是通向人类级智能的钥匙。
第三部分:AGI生死战——认知主义VS实用主义的终极对决
杨立昆的炮火不仅瞄准技术,更轰向AI哲学的核心分歧:
认知主义阵营
(杨立昆):AGI必须拥有内在世界模型、因果推理和自主意识,“像婴儿一样觉醒灵魂”
实用主义阵营
(OpenAI等):AGI只需在人类设定边界内高效完成任务,“不理解意义又何妨?”
这场对决在现实中已白热化:当ChatGPT接管客服、GPT-4V分析医疗影像时,实用主义者宣布“AGI已悄然降临”;但杨立昆冷笑反驳:“这些拼装式工具连猫的智商都没有!真正的智能必须理解‘为什么杯子会碎’,而不是背诵维基百科”。
更激烈的冲突发生在技术路线:
硅谷巨头
:继续堆数据、造更大LLM,用多模态缝合物理理解
杨立昆派
:推翻自回归范式,从零构建具身智能架构
“用预测Token的方法造AGI,就像用马鞭驾驶特斯拉!”他在GTC大会上的这句嘲讽,直接打脸黄仁勋的“Token宇宙论”。而面对英伟达力推的光学计算和量子计算,杨立昆更泼出冷水:“光学计算令人失望,量子计算纯属幻想!”
开源or封闭?AI文明的十字路口
在这场颠覆性革命的最后,杨立昆发出警告:任何国家或公司都无法垄断AGI!“若欧洲因保护主义禁止开源,将重蹈日本第五代计算机的覆辙!”他以LLaMA开源生态为例:非洲开发者用本地语言微调模型,成本仅巨头训练的1%——这或许暗示着,AI的未来不属于集中化的“神谕模型”,而是分布式进化的群体智能。
但现实充满反讽:当杨立昆在学术殿堂批判LLM时,Meta的广告系统仍在疯狂吸金;当他呼吁开源时,科技巨头正用专利墙圈地跑马。这场理想主义与商业现实的缠斗,恰似他演讲中的隐喻:“我们以为在攀登AGI高峰,其实还在山脚下和猫咪搏斗”。
GPT帝国的裂缝已然显现,但颠覆者能否成功?答案或许藏在杨立昆的另类比喻里:“AI需要像猫一样思考——不是为了证明自己聪明,而是为了生存。”当硅谷还在制造“词语魔术师”时,真正的革命者已转身凝视窗台——那里有一只猫,正用物理直觉优雅跃起。
热门跟贴