前几天看了Google DeepMind CEO Demis Hassabis的播客,里面有一句话,让我觉得很有意思:

"AI在今明两年被严重高估,但在未来10年被严重低估。"

同一个东西,怎么能同时被高估又被低估?

说这话的人不是普通的乐观派。现代AI 90%的基础突破,都和Hassabis有关。Transformer是Google做的,AlphaGo、AlphaFold是DeepMind做的,强化学习的工程化也是DeepMind推动的。

他说高估,我信。他说低估,我也信。但信的原因完全不一样。

锯齿状智能

AI有一个有意思的特征,叫"锯齿状智能"

OpenAI自己出了一套测试,叫SimpleQA。考察最基础的事实性问答,不需要推理,只需要知不知道。结果:即便是目前被广泛使用的主流模型,在这个测试上的得分,不到40%。

打开网易新闻 查看精彩图片

但就是这个模型,能通过美国司法考试的前10%——那需要大量法条记忆、复杂推理、文书写作。

同一个脑子。前一秒能帮你写出让律师点头的合同条款,后一秒在基础常识题上答错超过一半。你永远摸不清它在哪里会突然掉下去。

背后有一个没解决的根本缺陷:它被冻住了。

不是说它记不住你说的话——龙虾就有记忆功能,你聊得越多,它越懂你,Claude Code也有一个叫"做梦"的机制,在任务间隙整理巩固记忆,非常巧妙。

打开网易新闻 查看精彩图片

他说的"冻住"是另一个层面:模型本身的能力定格了。它不会因为跟你工作了一年而变得更有判断力,不会从每一次帮你解决问题的过程中变得更聪明。就像你雇了一个助理,他能查所有历史记录,但他本身的能力永远停在入职那天。

大脑靠睡眠做的事,不只是记住今天发生了什么,更是把新经历和已有的知识整合、重组,让人真正成长。AI现在有"记住",但还没有"成长"。这才是Hassabis说的那个还没解决的缺陷。

五年是AGI节点

Hassabis的逻辑从来不是"AI有问题,别指望了"。

他2010年就预测AGI需要20年。现在2026年,16年过去了。他当时列出的技术节点——深度学习的突破、强化学习的成熟、蛋白质折叠问题的攻克——一个个都到了。这不是运气,是按图纸在走。

他说,达到AGI还差几块能力:持续学习、世界模型、层级规划、创造性假设。还需要1到2个Transformer或AlphaGo级别的重大突破。

然后,他在2025年底说了一件关键的事。

先说一个背景:过去的AI是"脱口而出"——你问,它直接输出答案,没有思考过程。2024年底出现了一类新模型,以o1、o3为代表,叫推理模型(Thinking Models)。它们在给答案之前,会先在内部做一轮推演,真正地"想一想"。这是AI第一次有了类似人类推理的过程。

Hassabis说,推理方向的进展,可能已经算是路线图上那个重大突破之一了。这不是减一个数那么简单——推理能力打通了一条关键链路,让AI从"记忆检索机器"开始向"能思考的系统"演进。这是质变,不是量变。

打开网易新闻 查看精彩图片

他判断,五年内AGI到来有很大可能性。

我自己也有个看法:AGI不是全有全无的一个开关。它已经在一个个垂直领域到来了。特斯拉的自动驾驶,在"开车"这件事上早已超越人类——那是一个垂直领域的AGI已经到来了。我们用龙虾,在信息处理、任务调度、多线程执行这一层,做的事情也是类似的——把人从重复性工作里解放出来,让判断力成为唯一不可替代的东西。这不是比喻,是每天在发生的事。

不需要等AGI

Hassabis说过一句话,比"五年内AGI"更让人后背发凉:

"AGI的到来,就像10倍速度的工业革命。"

打开网易新闻 查看精彩图片

工业革命用了一百年,重塑了人类的生产方式和社会结构。10倍速,意味着十年。但最不安的不是这个预测,而是:它不需要等AGI才开始。

就在今天,差距已经在拉开。

我举个自己的例子。前段时间,我让龙虾做一份战略分析报告,涉及行业竞争格局、关键数据和几个方向的推演。换以前,这种活要安排两三个人花好几天。龙虾用了几个小时:搜索、汇总、结构化、起草初稿,我只需要在最关键的判断上压最后那一刀。时间缩短了,思考密度却更高了。

打开网易新闻 查看精彩图片

一个人配上几个Agent,不是能力放大了一点点,是直接变成一支小型军团。10倍,不是上限,是起点。

你身边已经有人上了高速。

不是更聪明,不是更努力,只是用了不同的工具,走了不同的路。

你打算怎么用这五年?

最后,如果你想体验龙虾为工作提效,现在就可以试试:

  • 国内版:easyclaw.cn

  • 国际版:easyclaw.com

  • 企业版:easyclaw.work

打开网易新闻 查看精彩图片