当科技界为大语言模型的卓越表现欢呼时,Meta首席AI科学家、图灵奖得主Yann LeCun却保持冷静,指出最先进的AI系统在真实世界的理解和交互上仍处于初级阶段。在这场深度对话中,他直指AI的根本局限,并通过JEPA架构等前沿探索,阐述了一条不同于主流LLM的技术路径,这可能才是通向真正人工智能的关键。

打开网易新闻 查看精彩图片

一、猫的智慧启示

访谈中,LeCun以猫的日常行为为例,深入剖析了智能的本质。他观察到,猫在跳跃前会进行环境评估、轨迹规划和物理推理,展现出对物理世界的深刻理解和精准预测。这种能力几乎每只家猫都具备,体现了智能的普遍性。相比之下,当前AI系统缺乏这种自发的探索和学习能力,揭示了AI发展的根本性问题:技术路径可能存在偏差,对智能本质的理解也可能存在认知盲点。

二、大型语言模型的局限

LeCun认为,虽然大型语言模型(LLM)在操纵语言方面表现出色,但它们对物理世界的理解几乎为零。LLM的认知完全基于文本训练,对世界的理解仅来自人类的文字描述,与真实世界的复杂性相去甚远。他指出,即便将训练数据扩大十倍,LLM架构也无法实现真正的创新性突破。问题的核心在于LLM的工作方式:它们进行的是复杂的文本模式匹配,而非真正的理解和推理。相比之下,专门化的模型在预测蛋白质结构、研究分子相互作用等领域取得了更实质性的突破。

三、AI时代的商业布局与转型

LeCun警告说,当前AI领域正在重演“修昔底德陷阱”,市场对LLM的过度关注挤压了其他创新方向的发展空间。他指出,企业正在陷入“沉没成本谬误”,不愿承认LLM的局限性,反而试图用这一技术解决所有问题。他强调,未来AI的突破口在于自监督学习和JEPA(联合嵌入预测架构)等能够真正理解和推理物理世界的技术。企业应重新评估AI投资方向,将目光投向这些虽然需要更长期投入,但可能带来根本性突破的技术方向。

四、AI安全问题与目标驱动架构

LeCun指出,当前AI系统,特别是LLM,在安全机制上存在根本性缺陷。他提出了“目标驱动”架构的概念,构建一个拥有完整世界模型的AI系统,使其能够在决策过程中自动整合保护性约束。他强调,真正的安全必须建立在系统的根本架构之上,而不是依赖于可能被绕过的表层限制。他提出了通过硬件层面的设计来模拟“痛苦”感知的方法,从而在物理层面确保系统的安全行为。

五、AI的未来之路与人类水平的AI

LeCun坚信,AI能够为人类带来巨大的福祉,但前提是我们能够正确引导AI的发展。他认为,AI的最终目标是帮助人类更好地理解世界,解决各种难题,促进社会的进步和发展。他提出用“人类水平的AI”或“AMI”(高级机器智能)来描述未来AI的目标,并指出实现这一目标是一个渐进的过程,至少需要五到六年的时间。然而,他也承认这个时间分布有一个非常长的尾巴,因为AI的历史总是告诉我们,人们总是低估它的难度。

他山石智库专家推荐:

大卫·帕特森 (David A. Patterson)
打开网易新闻 查看精彩图片
大卫·帕特森 (David A. Patterson)

  • 2017年图灵奖得主
  • 美国计算机科学界的先驱人物
  • 美国国家科学院院士、美国国家工程院院士、美国艺术与科学院院士
  • 加州大学伯克利分校荣誉退休计算机科学教授
  • ACM Fellow、IEEE Fellow、美国科学促进会会士
  • 谷歌大脑(Google Brain)团队成员
  • RISC(精简指令集计算机)技术的先驱之一

他山石智库深耕中国市场,汇聚全球科技、经济领域的权威专家,致力于推动中国经济和科技进步。凭借十年耕耘,建立了广泛的全球专家网络,并汇聚了一支顶尖的人工智能专家团队。其中包括诺贝尔奖得主、图灵奖获得者以及国内外知名的人工智能专家,精准对接中国科技企业的需求,提供智力支持和技术赋能,帮助企业在竞争中脱颖而出,实现高质量发展。

如需邀请诺贝尔奖得主、图灵奖得主、中国两院院士、欧美知名科学家、国内著名经济学家等专家,参与活动或峰会,包括大会演讲、诺奖院士工作站落地、联合咨询、发布产业报告,或邀请全球知名人士担任品牌顾问、首席科学家等相关事宜,请联系他山石智库。

打开网易新闻 查看精彩图片