全文 4,000字 | 阅读约 13 分钟

打开网易新闻 查看精彩图片

 现场演讲|谷歌副总裁 Blaise:AI 不靠理解,也能把事办成——关键是“预测”
打开网易新闻 查看更多视频
现场演讲|谷歌副总裁 Blaise:AI 不靠理解,也能把事办成——关键是“预测”

(TED演讲:从纸带实验看AI智能的本质)

你以为,AI 必须“理解你”,才能把事办成?

谷歌副总裁 Blaise Agüera y Arcas 却说:错了,它根本不需要懂你,只要能预测你就够了。

这不是文字游戏,而是智能设计的底层逻辑。

在最近的 TED 演讲《The Intelligence of Us》中,Blaise 提出一个重要观点:

智能不是关于像不像人,而是能不能预测,并在协作中落地。

Blaise 的身份,不只是谷歌副总裁兼研究员,也是 Technology & Society 的 CTO。他既做基础研究,也做产品落地。你手机里的预测功能,很多人每天都在用:

  • 听歌识曲功能: 离线识别正在播放的歌曲(他于2017年首发,无需联网即可预测歌名)

  • 智能输入法:预测你想打的下一个词,同时保护隐私(采用联邦学习与差分隐私技术)

这两条产品线,有一个共同点:不是追求理解,只求预测管用。

所以真正值得问的问题,不是“AI 懂不懂人话”,而是:

  • 哪些工作环节,AI 能给出可靠预测?

  • 哪些重要决策,必须由人来做?

  • 如何建立检验机制,让 AI 从实验室走向实际应用?

这些问题的答案,很可能决定你们公司今年的 AI 落地效果。

第一节|不是懂你,是能帮你做事

我们一直以为,用来预测下一个词的模型,只能做点简单任务。 但这些模型现在能回答情境类问题。 比如故事中角色的情绪,甚至数学题,这让我们非常吃惊。

这是谷歌副总裁 Blaise 在演讲中讲的一段回忆。

他指的是一种大多数人并不熟悉、却天天在用的 AI 能力:预测下一个词。

比如你打字时,Gboard 自动给出“你可能要输入的词”;打开 Pixel 手机,它自动识别正在播放的歌曲。这些功能都不是“理解了你”,而是预测你会说什么、做什么。

一开始,人们普遍以为: 预测只能预测一些“八成会发生”的东西。 “Humpty”后面大概率是“Dumpty”,这不叫智能,叫押韵(Humpty Dumpty 是英语童谣,相当于"小白兔白又白")。 可接下来的事,Blaise 说,颠覆了他们的判断:

“如果前面的内容是一个数学应用题,或者是一个故事,而你要预测的是故事里某个角色的情绪,我们原以为模型是做不到的。但它做到了。”

这是什么意思?

它不是机械地往下填空,而是从你写的内容中,推断出角色是谁、发生了什么、现在该怎么回应。

而这,靠的还是预测。

1、预测怎么变成“智能”了?

Blaise 的回答来自神经科学。至少从 19 世纪开始,神经科学就有一种理论:人脑的本质,是用过去来预测未来。我们拥有神经系统,是为了让我们能预测环境,调整行动。

换句话说,你的大脑并不是靠完全理解世界来做决策的。

而是靠快速预测:“接下来可能发生什么”“如果我这么做,会怎样”。

预测得准,就活得久。 预测得稳,就少犯错。

智能,不是源于理解,而是源于能把预测和现实匹配起来。

语言模型也是这样。它没看懂你写的东西,但它不断尝试——你给我一句话,我猜你下一句会说啥;你说了一个设定,我猜你会怎么展开;你停顿了,我来补一下。

只要它给出的结果,让你觉得“对”,那它就赢了。

而且,它学得越多,这种“匹配”的能力就越强。

2、所以关键不是理解,而是配合

Blaise 说,他们原以为这种模型“在本质上会非常有限”, 但结果却是:

它不仅回答对了情境问题,还能完成之前认为属于通用智能的问题。

这改变了一切认知。

我们以为预测只能做表面,结果它做到了一定程度的配合、推理、归纳和判断;

我们以为 AI 要先懂你,才能帮你,结果它靠预测就能顺着你的想法走下去,甚至走得更快。

这就像一个没有共情能力的人,却能精确模仿你说话的节奏、语气和话题点,到最后你甚至会觉得“它好像很懂我”。

但真相是:

它根本没“懂”,只是太会预测了。

这,才是大语言模型爆发的关键所在。

第二节|AI 不是对手,是协作伙伴

语言模型的预测能力,已经不只是说得对。 它现在开始能“做得成”。

这意味着什么?

它不是靠理解目标,而是靠不断预测下一步动作,把一件事从头做到尾。

不是我们事先教会它流程,而是它从对话中预测你的意图,主动补上下一步。

1、举个你能感受到的场景:

你说:“帮我写一份面试邀请邮件,别太官方。”

它立刻给出一版邮件,语气自然,还替你考虑了时间、联系人和回复链接。

你没给模板,也没规定格式,它就是能写出你大概想要的东西。

再比如:

你说:“这段代码是不是有问题?”

它不只指出问题,还改好了,顺便加了注释。

你并没有给出流程、规范、目标、验收标准,但它都给补上了。

为什么它能做到这些?

Blaise 的原话是:我们没有给它设定'这类任务怎么做'的规则,而是让它通过大规模预测训练自己学会了通用能力。

这说明:

  • "模型不是真的理解你要什么,而是在预测你下一步的想法。

  • 它不是有意识地制定计划,而是预测你每一步的可能方向,并主动补上

这种预测,不再只是接下去说什么,而是它推测你打算干什么、要达到什么效果、然后下一步可能干嘛。

它等于是把你的想法变成了行动。

2、为什么它能做到这一点?还是因为预测

Blaise 给出的核心解释是:智能的本质不是规则执行,而是能持续预测你要做什么,并给出能影响你的回应。

通俗的说法是:

  • 如果一个系统能稳定判断你想干嘛

  • 并在你还没开口之前,就给出下一个合适动作

  • 而且这个建议你认可、能把事情往前推 → 那它就等于成了你的"代理人"

不是机器人按命令执行,而是 AI 把你还没说出口的想法,提前变成了行动。

这就是为什么 AI 能接管整个工作流程。

3、它怎么知道“哪一步”是合理的?

它不知道。

它只是看过成千上万个你和别人“怎么做事”的例子。 然后在你刚抬起手、话还没说完的时候,它就猜到了你下一步想怎么做。

预测得越准,配合得越默契,任务完成得越顺畅。

AI 不会告诉你"我懂你"——它只是总能猜对你下一句要说什么。

它只需要不断预测你的下一步,然后及时跟上。

一旦预测准确率足够高,AI 就不再只是回答问题,而是能主动推进任务。

这,就是 AI 从"语言模型"走向"行动助手"的分界线。

第三节|智能不是写出来的,是“长”出来的

你有没有发现,现在的 AI 不只是回答问题,还会主动提建议?(小编备注:这节比较抽象,可以直接观看演讲视频)

比如你说"我想学做菜",它不仅推荐菜谱,还会问你有什么食材、想做什么口味,甚至帮你规划一周的菜单。

这种"主动性"是怎么来的?

谷歌副总裁 Blaise 在演讲中分享了一个有趣实验:“我们做了一件非常简单的事:把一堆随机的纸带,每条只有一两个简单指令,丢进一个模拟环境里。

然后不断从里面随机挑两个纸带,把它们粘在一起、运行一次、再分开,丢回去,重复千万次。

一开始什么都没发生。但几百万次交互后,一件神奇的事出现了:那些纸带自己变成了完整程序,而且开始复制自己。”

1、这不是模拟智能,而是“自然长出行为模式”

一开始,这些纸带只是乱码。

没有任何设计,连程序员都不知道它们会干嘛。

但因为每一步都执行了真实的计算指令, 随着交互的增加,一些纸带组合出现了有用的指令组合,能不断拷贝自己、留在系统里。

Blaise 说:

不能复制自己的纸带,最终都会被能复制自己的纸带淘汰掉。

这就像自然界里的选择机制——会繁殖的生物活下来,不会的消失了。

2、那这些“纸带程序”到底在干嘛?

没有人教它们要完成什么任务,它们自己找到了生存逻辑:能复制,就不会被淘汰;复制得多,就越来越强。

打开网易新闻 查看精彩图片

(纸带实验结果图:
X轴—交互次数(百万次),Y轴—计算强度,600万次交互后,随机程序突然涌现出自复制智能行为。)

Blaise 在实验中画出一张如上图,展示整个演化过程:

“前六百万次交互,几乎什么都没发生。但在某一刻,计算量突然飙升。系统从‘随机状态’变成了‘有目的行为’。”

这个转折点非常关键。

没人教它们怎么做,但它们在反复试验中,自己琢磨出了门道、形成了套路、甚至懂得了团队合作。

什么叫团队合作?

这不只是一条纸带能复制自己,而是两条纸带遇到一起时,能更高效地互相帮助复制。

这让 Blaise 想到了进化生物学里的“共生理论(symbiogenesis)”:比如我们身体的细胞,其实是两种小生物住在一起的结果。它们发现合作比单干效果好,于是就永远搭伙了。

也就是说,当这些小纸带联手合作,它们就从单打独斗变成了能共同搭建复杂结构。

3、真正的智能,不是你设计,而是它“搭起来”

Blaise 的判断非常直接:

这些复杂程序,没有哪一条是我们人写出来的。 它们都是在没有人管理、没有说明书、没有预设目标的情况下,自己从混乱中摸索出来的。

你可以想象成:

  • 一开始是零散的行为片段(像现在我们给模型的提示)

  • 然后是“多个片段能组合在一起”,变成任务链条

  • 最后,这些链条之间还能协同、互相适应,形成长期存在的结构

这和今天的语言模型有什么关系?

当语言模型能预测出一整段任务如何完成,并且能和你的行为协同配合时,它已经不再只是"预测工具",而是具备了"结构化智能"——不仅知道下一步做什么,还知道整个事情该怎么完成。

Blaise 的话说得再明白不过:

“你不会用花岗岩雕像说‘它很稳定’。因为它再稳定,也只能等着时间一点点侵蚀。但一个能复制自己的程序,就不一样了。它可以持续存在,持续演化,持续适应。”

这就是智能的另一种样子:

不是死板执行,而是灵活应变;不是真懂你,而是边试边长。

第四节|AI 共生,是一种集体能力

到这里,我们已经知道:

AI 不需要理解你,只要能稳定预测,就能一步步完成任务; 预测多了,就能组成结构,甚至形成"涌现"的智能体系。

但 Blaise 想说的,不止是"模型长出结构"。 他在演讲的后半段抛出更关键的问题:

我们是否愿意接受 AI 成为人类社会的一部分?

这句话的含义非常深。

不是"AI 替代人",也不是"人控制 AI", 而是——AI 已经在参与协作、组成更大的智能网络。

1、人类社会的底层,是协作智能

举个例子:当你坐飞机,驾驶员、管制员、制造商、机场系统,甚至天气预报,都在共同作用。这就是一个超级大的智能协作网络。

什么意思?

你以为是飞行员在飞,但其实是很多角色和工具在协同,人类只是其中一环。 每个人都掌握部分信息,大家共同承担一个结果。

这种协同,早就是现代社会的运行基础。

我们习惯了人与人之间的合作,现在要问的是:

“AI 能不能成为这个协作网络中的一员?”

答案是:AI 现在就已经是这个智能网络的一部分。它在你手机里,在小红书里,在抖音里。

“我们以为自己在控制这些工具,但其实它们早已介入我们的决策链、组织逻辑和社会结构。”

这不是危言耸听,而是现实。

  • 你刷短视频,推荐算法决定你看到什么;

  • 你导航出行,路径是模型算的;

  • 你问 ChatGPT/DeepSeek 一句话,答案背后其实牵动着全球服务器、数据集与规则筛选。

Blaise 的观点是: AI 不是一个外部工具,而是已经参与了社会智能分工的角色。

2、问题不在技术,而在我们怎么共存

所以问题来了—— 既然 AI 已经在场,我们怎么安排它的位置?

关键问题是:我们能不能设定一个结构,让 AI 像 GPS 一样给人类提供稳定的参考,而不是直接干预人类的主观判断?

两个要点:

  1. AI 要可预测、可校验

就像GPS导航一样,大多数时候给对路线,偶尔出错时你能识别出来;

  1. 人类要保留决策权

人决定要去哪,AI 只负责建议路径。

也就是说:AI 是集体智能的组成部分,但不应掌控全局。

真正的智慧,不是 AI 有多强,而是人类有没有构建一个清晰的协作架构,能让 AI 灵活接入,同时确保权限可控。

3、最终要走向的,是协同演化

Blaise 在演讲结尾说:

“人类并不是孤立的智能个体,我们一直都是群体智能的一部分。AI 的加入,并不是打破这个结构,而是继续扩大它。”

AI 不应被看作外星人或者入侵者,而是新一代的协作者。

这要求我们重新设计工作方式、组织结构、规则边界—— 不是让 AI 替你做完,而是让它能与你配合,共同完成任务。

结语|AI 不理解你,但能与你共事

AI 不懂人类,也未必需要懂。

Blaise 一句话说得清楚:

它猜得准,不等于真的懂,但合作够用了。

这是一次思维转变:关注协作效果,而不是拟人程度。

今天的大模型,已经能预测词、预测路径、预测操作。 当这些预测够稳定,它就能:

  • 协助你起草邮件、生成代码、排查故障;

  • 嵌入到流程里,自动处理大量重复事务;

  • 参与到更大的集体决策网络中,承担职责。

你需要转变的问题:它能在哪一步,帮你"把事做完"?

用对它,才是你在这个技术周期中的真实优势。

本文由AI深度研究院出品,内容整理翻译自谷歌副总裁 Blaise Agüera y Arcas 在 TEDxCatawba 的演讲。未经授权,不得转载。

星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标

参考资料:

https://www.youtube.com/watch?v=OD5UzhaDWfg&t=44s&ab_channel=TEDxTalks

https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/

https://tedxcatawba.com/program?utm_source=chatgpt.com

https://research.google/blog/googles-next-generation-music-recognition/?utm_source=chatgpt.com

https://aclanthology.org/2023.acl-industry.60.pdf?utm_source=chatgpt.com

https://research.google/people/106776/?utm_source=chatgpt.com

来源:官方媒体/网络新闻

排版:Atlas

编辑:深思

主编: 图灵