来源:市场资讯
(来源:图灵人工智能)
您想知道的人工智能干货,第一时间送达
当一个17岁就设计出爆款游戏、后来拿了认知神经科学博士、又因为 AlphaFold 获得诺贝尔化学奖的人,坐下来和你聊“AGI 还缺什么”时,你会期待什么答案?
更大的模型?更多的算力?更疯狂的数据规模?
Demis Hassabis 的答案让我意外:可能只差1到2个关键想法。而这些想法,藏在一些看起来“不够性感”的地方——记忆、持续学习、还有一种他称之为“内省”的能力。
我们解读最新技术,文末有相关信息。
作者:张长旺,图源:旺知识
这不是一场关于技术参数的炫耀,而是一次难得的坦诚对话。作为 Google DeepMind 的掌门人,Demis 在 YC 的这场访谈里,聊了很多“不完美”的地方:为什么 AI 能解奥数金牌题却会在下棋时明知是昏招还要走?为什么智能体(Agent)看起来很火,但还没人用它做出一款真正的爆款游戏?为什么百万 token 的上下文窗口,仍然不够用?
这些问题背后,藏着通往 AGI 的真正路径。
一个反常识的发现:记忆越大,问题越多
访谈一开始,主持人 Garry Tan 就抛出了一个直击要害的问题:现在的大模型架构——大规模预训练、RLHF、思维链——这些已经占了 AGI 最终架构的多少比例?
Demis 的回答很微妙。他说这些组件“几乎肯定”会是 AGI 的一部分,不太可能几年后发现这是条死路。但紧接着,他列出了三个仍未解决的核心问题:
持续学习(Continual Learning)长期推理(Long-term Reasoning)记忆的某些方面(Some Aspects of Memory)
第三点让我停下来想了很久。
我们不是已经有百万 token 的上下文窗口了吗?Gemini 甚至能处理1000万 token。这还不够?
Demis 用了一个精妙的类比:上下文窗口就像人类的“工作记忆”——我们大概能同时记住7个左右的数字或信息块。AI 的工作记忆已经扩展到了百万级,但问题是,我们正在把所有东西都塞进工作记忆里。
重要的、不重要的、对的、错的,全都一股脑儿塞进去。这就像你在解一道数学题时,不仅要记住题目和公式,还要记住昨天的午餐菜单、上周看过的所有新闻、以及你人生中每一次和数字相关的对话。
更致命的是:即使你能存下所有信息,找到真正相关的那一条,本身就是个昂贵的过程。
这让我想起博尔赫斯小说《博闻强记的富内斯》里的主人公。他因为一次意外获得了完美记忆,能记住每一片树叶的每一条纹路、每一秒钟的每一个细节。但这个“天赋”反而摧毁了他的思考能力——因为他无法抽象,无法归纳,无法忘记。
记忆的艺术,本质上是遗忘的艺术。
Demis 提到,人类大脑通过海马体(hippocampus)优雅地将新知识整合进已有知识库——这正是他博士研究的课题。大脑在睡眠中,尤其是 REM(快速眼动)睡眠阶段,会回放重要的记忆片段,强化学习。
早在2013年,DeepMind 的第一个 Atari 游戏 AI(DQN)就借鉴了这个机制,通过“经验回放”(Experience Replay)反复学习成功的游戏轨迹。但那是在封闭的游戏环境里。
在开放世界中,我们还在用“胶带”拼凑解决方案——把所有东西塞进上下文窗口,然后祈祷模型能找到有用的部分。
Demis 说得很直白:这不够优雅,还有很大的创新空间。
当 AI 下棋时,我看到了它思考的“盲区”
对话进行到中段,Demis 分享了一个特别有趣的细节:他喜欢和 Gemini 下国际象棋。
这听起来有点讽刺——毕竟 DeepMind 就是那个用 AlphaGo 击败围棋世界冠军、用 AlphaZero 自学成为棋类大师的实验室。但 Demis 说,所有主流大语言模型在下棋时都表现得很糟糕。
更有意思的是原因。
因为下棋是一个“可验证”的领域——每一步是好是坏,都能被精确评估。所以当你看着模型的思维链(Chain of Thought)时,你能清楚地看到它在哪里走偏了。
Demis 观察到一个令人不安的模式:模型会考虑一个走法,意识到这是个昏招,但因为找不到更好的选择,它还是会走这步棋。
这就像一个学生在考试时,明知道自己写的答案是错的,但因为想不出别的,还是硬着头皮写上去。
问题出在哪?Demis 认为是缺乏对自身思考过程的监控和调整能力——他称之为“内省”(Introspection)。
模型会陷入思维循环,重复考虑同样的选项,却无法跳出来审视:“我是不是在原地打转?我是不是该换个角度?”
这也解释了为什么 AI 会出现“锯齿状智能”(Jagged Intelligence)——一方面能解国际数学奥林匹克(IMO)金牌级别的难题,另一方面却在换个问法后犯基础的算术错误。
它缺少一个“元认知”层,一个能站在思考之上观察思考的机制。
这让我想起心理学家丹尼尔·卡尼曼在《思考,快与慢》里描述的“系统1”和“系统2”。系统1是快速、直觉的;系统2是慢速、深思的。但更重要的是,人类有一个“监控者”,能在系统1出错时唤醒系统2。
现在的 AI,更像是只有系统1和系统2,但没有那个监控者。
智能体的悖论:为什么还没出现爆款?
当话题转向智能体(Agent)时,气氛变得微妙起来。
主持人直言:智能体现在很火,但有人说是炒作。Demis 的回答很有意思:他认为智能体“才刚刚开始”,因为要达到 AGI,你必须有一个能主动解决问题的系统——这就是智能体的定义。
但紧接着,他提出了一个尖锐的问题:
“为什么我们还没看到一个用 AI 工具‘随手敲’出来的游戏,卖出1000万份?”
他说,自己17岁时花了6个月做出了《主题公园》(Theme Park)这款游戏。现在用 AI 工具,半小时就能做出一个原型。按理说,应该有人能用一个夏天的时间,做出真正惊艳的作品。
但没有。
是工具不够好吗?还是我们用错了方式?
Demis 倾向于认为,可能是“人的因素”还没跟上。工具已经能做到95%,但最后那5%——品味、灵魂、工艺——仍然需要人类的深度参与。
他提到 AlphaGo 的“第37手”(Move 37)——那步让所有人类棋手震惊的创造性走法。但他说,能下出第37手还不够,真正的创造力是“发明围棋”本身。
如果你给 AI 一个高层描述:“设计一个5分钟能学会规则,但需要一生去精通的游戏,要有美学深度,一局能在几小时内结束”——它能返回给你“围棋”这个答案吗?
Demis 认为,目前的系统还做不到。
但他也留了一个开放的可能:也许不是系统不行,而是还没有足够有创造力的人,以足够深入的方式使用这些工具。
这让我想起一个观察:真正改变世界的技术,往往不是在发布的那一刻就显现威力,而是在某个人以一种“发明者都没想到”的方式使用它时,才爆发出来。
iPhone 刚发布时,没人想到会有 Uber、Instagram、TikTok.
也许 AI 智能体也在等待它的“iPhone 时刻”——不是技术本身的突破,而是使用方式的突破。
AlphaGo 的哲学,正在回归 Gemini
对话中有一个容易被忽略,但我觉得极其重要的细节:Demis 说,DeepMind 在 AlphaGo 和 AlphaZero 时代积累的很多技术,正在被重新审视,应用到今天的大语言模型上。
这包括:
• 蒙特卡洛树搜索(Monte Carlo Tree Search)
• 强化学习的各种变体
• 思维模式(Thinking Modes)和推理链
换句话说,从游戏 AI 到通用 AI,不是一次推倒重来,而是一次螺旋式上升。
这让我重新理解了 DeepMind 的战略:他们从来不是在“做游戏 AI”,而是在用游戏这个可控、可验证的环境,探索智能的本质。
围棋、星际争霸、Atari 游戏——这些都是“智能的试验场”。在这些场景里,你能清晰地定义目标、衡量进步、验证假设。
而现在,这些在游戏中被证明有效的机制,正在被“泛化”到语言、视觉、多模态理解上。
Demis 特别强调了 Gemini 的一个被低估的特点:从一开始就是多模态的。
大多数模型是先做文本,再“加上”视觉和音频。但 Gemini 从训练的第一天起,就同时处理文本、图像、音频、视频。
这让训练变得更难,但长期收益是巨大的——因为真实世界不是“纯文本”的,而是多模态的。
他认为,这会让 Gemini 在机器人、自动驾驶(如 Waymo)、物理世界建模(如 Genie 项目)等领域有独特优势。
理解物理世界的 AI,必须从一开始就“看得见”世界。
小模型的逆袭:蒸馏的极限在哪?
访谈中有一段关于模型“蒸馏”(Distillation)的讨论,让我看到了一个有趣的趋势。
主持人问:小模型能变得和大模型一样聪明吗?比如一个400B 参数的模型,能达到今天顶级模型的水平吗?
Demis 的回答出乎意料地乐观:我们还没碰到信息密度的理论极限。
他说,DeepMind 的一个核心优势,就是能快速把大模型的能力“压缩”到小模型里。而且这不是简单的性能妥协——Gemini Flash 系列能做到“95%的能力,十分之一的成本”。
更激进的是,他认为一年后,去年的旗舰模型级别的能力,会被压缩到边缘设备(edge devices)上——比如手机、眼镜、机器人。
这背后的驱动力很实际:Google 需要为数十亿用户、十几个日活过10亿的产品(搜索、地图、YouTube 等)提供 AI 能力。这逼着他们必须把模型做得极致高效。
但这也引出了一个哲学问题:如果小模型能无限接近大模型,那我们为什么还要大模型?
Demis 的答案是:因为我们会找到新的方式,用掉所有可用的算力。
他提到了“杰文斯悖论”(Jevons Paradox)——当一种资源变得更高效时,人们不会减少使用,反而会找到更多使用它的方式。
比如:
• 数百个智能体协同工作
• 单个智能体在多个方向上并行思考,然后集成结果
• 更长时间、更深层次的推理
推理永远不会“免费”,因为我们会不断发明新的方式来消耗它。
这让我想起计算机存储的历史。1980年代,5MB 硬盘就够用了;现在1TB 都不够。不是因为我们变得更浪费,而是因为我们找到了新的可能性——高清视频、3D 游戏、AI 模型。
从 AlphaFold 到“虚拟细胞”:科学的下一个十年
访谈的后半段,话题转向了 Demis 最热爱的领域:用 AI 推动科学突破。
AlphaFold 的故事已经广为人知:它破解了困扰生物学50年的“蛋白质结构预测”难题,现在全球300万科学家在使用它,几乎每一个未来的新药都会在研发过程中用到它。
但 Demis 说,这只是开始。
他透露,DeepMind 正在研究的下一个目标是:虚拟细胞(Virtual Cell)。
想象一下:一个完整的、可运行的细胞模拟系统。你可以在里面“扰动”任何一个分子、任何一个基因,然后观察整个细胞的反应——而这个模拟的准确度,接近真实实验。
这意味着什么?
意味着药物研发可以跳过大量的试错步骤;意味着我们能生成海量的“合成数据”来训练更好的生物模型;意味着我们能在电脑里测试那些在现实中太危险、太昂贵、或太耗时的假设。
Demis 估计,完整的虚拟细胞,大概还需要10年。
现在他们在做的,是先从“细胞核”开始——因为它相对独立,输入输出比较容易建模。
但这里有一个技术瓶颈:数据不够。
Demis 和顶尖的显微镜专家聊过,发现一个核心问题:**我们能以纳米级分辨率拍摄细胞,但只能拍“死”的细胞。**活细胞的动态过程,目前的成像技术还捕捉不到。
如果能解决这个问题,生物学就能变成一个“视觉问题”——而视觉问题,AI 已经很擅长了。
这让我想起一个更宏大的视角:Demis 说,DeepMind 的使命从一开始就是两步走——
第一步:解决智能第二步:用它解决其他一切
他们后来不得不改掉“其他一切”这个表述,因为听起来太狂妄。但 Demis 说,他们确实是这个意思。
具体来说,是解决科学中的“根节点问题”(Root Node Problems)——那些一旦突破,就能解锁整个领域的关键难题。
AlphaFold 是蛋白质领域的根节点。
虚拟细胞可能是细胞生物学的根节点。
材料科学、气候建模、数学——每个领域都有自己的根节点,等待被 AI 攻克。
给创业者的建议:深度技术+AI,才是护城河
访谈接近尾声时,主持人问了一个很实际的问题:对于想用 AI 做科学的创业者,怎么区分“真正推进前沿”和“只是包装一个 API”?
Demis 的回答很真诚:
如果你只是在基础模型上做一层封装,下一次模型更新可能就把你的优势抹平了。
但如果你把 AI 和另一个深度技术领域结合——材料科学、医学、生物工程——那就不一样了。
因为涉及“原子世界”的问题,不会有捷径。
你需要跨学科的团队,需要对两个领域都有深刻理解,需要时间去验证、迭代、积累数据。这些都是护城河。
他还提到一个时间维度的考量:如果你认为 AGI 会在2030年左右出现,那么今天开始的任何深度技术项目,都要考虑“AGI 会在中途出现”这个变量。
这不一定是坏事,但你必须想清楚:当 AGI 来临时,你的项目是会被加速,还是会被颠覆?
Demis 自己显然是“深度技术”的信仰者。2010年创立 DeepMind 时,AI 还被认为是“已经证明不行”的方向。投资人和学术界都不看好。
但如果你有信念,有独特的视角,有跨领域的洞察——难的事情,往往才是值得做的事情。
结语:AGI 不是终点,是工具
整场访谈看下来,我最大的感受是:Demis Hassabis 对 AGI 的态度,既雄心勃勃,又异常清醒。
他不认为 AGI 是“人类的终结”或“奇点降临”,而是一个工具——一个能帮助我们理解宇宙、治愈疾病、解决根本问题的工具。
他也不认为我们已经“接近完成”。记忆、持续学习、内省、创造力——这些看起来“不够酷”的问题,恰恰是最难啃的骨头。
但最让我印象深刻的,是他对“1到2个关键想法”的判断。
不是10个,不是100个,可能就是1到2个。
这意味着什么?意味着 AGI 不是一场“堆砌”的游戏,而是一场“洞察”的游戏。
就像 AlphaGo 不是靠更多的算力击败人类,而是靠蒙特卡洛树搜索和价值网络的巧妙结合。
就像 AlphaFold 不是靠更大的模型,而是靠把生物学问题转化为几何问题的关键洞察。
下一个突破,可能不在实验室的 GPU 集群里,而在某个人的笔记本上,在某个深夜的灵光一现里。
也许是你,也许是这个房间里的某个人。
而当那一刻到来时,我们回头看,会发现答案一直都在那里——在大脑的海马体里,在围棋的第37手里,在那些我们以为“已经解决”但其实只是“用胶带粘起来”的地方。
参考资料
• Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough
热门跟贴