2025年初,亚马逊创始人贝佐斯和投资人马克·库班联手投出超过10亿美元,押给一家只有12名员工、零产品的创业公司。被投的不是大语言模型(LLM,即预测下一个词的大规模神经网络),而是图灵奖得主杨立昆(Yann LeCun)坚信的另一条路。

这笔钱赌的是:过去三年所有人追捧的"更大模型=更强智能",可能是条死胡同。

LLM的天花板,LeCun三年前就说了

LLM的天花板,LeCun三年前就说了

如果你用过ChatGPT、Claude或Gemini,你接触的是现代AI的主流范式——大语言模型。过去三年的叙事很简单:模型越大,能力越强,颠覆越快。但LeCun的质疑从未停止。

作为深度学习三巨头之一,LeCun的核心论点是:大语言模型在架构上就不足以支撑真正的智能。它们擅长预测下一个词,却不理解物理世界,无法规划、推理或建立持久的知识表征。一个系统能流畅描述"如何系鞋带",却永远无法真正学会这个动作——这就是LeCun眼中的根本缺陷。

他的替代方案是"世界模型"(World Model):让AI像婴儿一样,通过观察世界、预测后果、验证假设来学习,而非消化互联网文本。这种架构强调因果推理和物理直觉,而非统计模式匹配。

12人团队凭什么值35亿?

12人团队凭什么值35亿?

接受这笔投资的是AMI Labs(Advanced Machine Intelligence Labs),2025年初估值35亿美元。团队规模:12人。产品状态:零。

这种配置在AI融资史上近乎荒诞。对比OpenAI同期数百人的研究团队和持续迭代的产品管线,AMI Labs像一家理论物理研究所——资本买的不是现金流,是对范式转移的期权。

贝佐斯和库班的组合耐人寻味。前者掌握全球最大的云计算基础设施和物流数据,后者以激进押注颠覆性技术闻名。他们的共同判断是:如果LeCun是对的,当前所有LLM应用都可能成为过渡性技术,就像功能机之于智能手机。

数据科学家为什么该关心

数据科学家为什么该关心

这场争论的吊诡之处在于:它几乎不出现在产品发布会或基准测试榜上。大多数从业者忙于调用API、优化提示词、处理RAG(检索增强生成,即让模型查资料再回答)的幻觉问题——这些工作都建立在LLM架构之上。

但LeCun的批评直指这些工作的天花板。如果世界模型路线成功,当前投入大量资源的微调工程、提示工程、安全对齐技术,可能都需要重新设计。数据科学家的技能栈将面临一次痛苦的迁移。

更现实的威胁是时间窗口。AMI Labs的融资表明,顶级资本已经开始为"后LLM时代"布局。如果世界模型在三年内取得突破,今天的大模型应用开发者可能像2012年的诺基亚工程师——技术能力仍在,但赛道换了。

LeCun本人对此的表述很直接:「我们不是在改进ChatGPT,我们在尝试做完全不同的事情。」

这笔10亿美元押注的真正问题或许是:当12人团队的估值超过多数上市AI公司,市场到底在定价什么——是技术的确定性,还是对当前范式集体焦虑的保费?