全文 6,000字 | 阅读约 32 分钟
97%——这不是模型的准确率,而是 2024 年 7 月 14 日《中国青年报》对1461名大学生的问卷结果:几乎所有受访者,都曾被 AI 编造的内容骗过。
无论是写论文、查资料、做简历,还是策划提案,他们都曾信以为真,直到踩了坑。
2025 年 6 月 25 日,在加拿大多伦多科技周的 Convocation Hall,人工神经网络与深度学习的奠基人、2024 年诺贝尔奖得主 Geoffrey Hinton,点出了一个更核心的问题:
大型语言模型也许已经拥有主观体验, 但真正危险的是:它们让人类误以为,有了 AI 就什么都懂了。
我们可以将这种现象称为——“理解幻觉”(Understanding Illusion)。
语言模型回答得越流畅,人类越放松警惕;
当“似是而非”被误以为是“板上钉钉”,
当“看上去很懂你”变成了“替你做决策”的前提,
从科研、职场到产业链,就可能深陷错觉而不自知。
这不再是抽象的理论警告,而是一场现实危机:你写的报告、你查的网站,甚至你做出的每一次商业判断,都可能被一个'装得很懂'的 AI 给误导了。
接下来,既然 AI 已经学会了"装懂", 我们就更要学会"识破"—— 这可能是避免踩坑的唯一办法。
第一节|“理解”这件事,人类本来也没想明白
大语言模型的最大迷人之处,是它“好像真的听懂你在说什么”。
但 Hinton 开场就提醒——我们别太自信。
语言学家几十年来都没搞懂‘含义’是什么。
在这场对谈中,Hinton专门提出早些两个流行但矛盾的解释:
一个来自符号派:词语的含义,来自它和其它词的逻辑关系;
一个来自心理学:词语是你脑海中关于某个东西的一堆特征。
Hinton 并没有否定任何一派。他回忆自己在 1985 年做过一个小模型,试图证明:这两种看法其实是兼容的。
那是个原始的语言神经网络。它不存储任何完整句子,而是学会用“词语的特征”来预测下一个词。预测做错,就反向调整连接强度。语言知识,不是存在某个句子里,而是存储在神经元之间的“相互关系”中。
他说,这才是理解的本质。
✅ 词语不是乐高,是会变形的多维物体
Hinton 提出一个特别的比喻:
“理解语言的过程,不是分析句法,而更像是蛋白质折叠。”
他进一步解释:
“你可以想象词语像乐高积木,但不是三维的,而是一百维、甚至一千维的形状。”
这些词语在每个句子里都会'变化'。变化不是随便乱变,而是为了和其他词语搭配好,一起表达出完整的意思。
词语的含义,不是它自身,而是它如何适应其他词, 像一只只伸出的手,去‘握住’其他词的手。
他打趣说:“如果你无法想象一百维,只要看着一个三维物体,然后大声说一句‘一百’。”
但这个看似幽默的类比,指向了一个非常关键的判断:
理解,不是记住规则,不是知道定义,而是让意义之间“拼接”得刚刚好。
✅ 你从没听过这个词,但你一下就懂了
Hinton给了一个有趣的例子,解释这种贴合是怎么发生的:
“她用平底锅 scrummed 了他。”
你可能从没听过“scrum”
(注:scrum本指橄榄球中的争球,这里Hinton临时造了个词)这个动词。但你却能瞬间猜出它的意思——可能是“打了一下”,“狠狠砸了头”,也许还有点搞笑的成分。
为什么你能理解?因为上下文就像拼图,其他词语围出了一个缺口,这个新词正好能补上。
这,就是理解的发生过程。
不是靠提前定义的规则,而是靠词语之间的实时协调。语言模型也用同样的方式理解人类语言。
✅ “理解”不只是推断,更像“协同折叠”
对比传统 AI 更像拼图游戏,Hinton认为,现在的大模型已经在模仿人类那种'会变通'的理解。
它不是分析句法结构;
也不是调用知识图谱查关系;
而是在每个上下文中,让所有“意义形状”对齐,让整个结构能自洽、顺畅、合理。
一旦你把词语都理顺了,让它们连得上——你就理解了这句话。
大语言模型也是这样做的,我相信人类也是。
在这里,Hinton讲了一件让人有些不安的事情:我们以为理解是人类独有的能力,但它可能只是一个"配对组合"的过程——而语言模型,已经越来越擅长这种匹配了。
这是他几十年研究神经网络之后的深度思考。
第二节|理解 vs 模拟:Hinton × Frosst 辩论
如果说第一节讲的是 Hinton 对“语言理解”的判断逻辑,那这一节,就是这场现场对话的核心对撞。
在台上,与 Hinton 正面对话的,是他曾经的实习生、现在是 AI 独角兽公司 Cohere 的联合创始人 Nick Frosst。
一个认为 AI 已经在“理解”;
一个认为它只是“模拟理解”。
他们在用完全不同的方式定义“智能”。
✅ AI 是飞机,不是鸟
Frosst 提出一个有趣的比喻:我们造出了飞机。它确实能飞,而且飞得比鸟快、比鸟远,但飞行方式完全不同。
鸟是拍翅膀飞,飞机是靠推进器和升力飞。它们结果相似,但机制差异巨大。
他接着说:
“我认为大语言模型(LLM)也一样。它们非常有用,但它们理解语言的方式,跟人类完全不同。”
这句话一出,全场开始安静地思考。
Hinton没被这个比喻说服。他立刻补了一句:但你知道吗?鸟在滑翔的时候,飞行方式就跟飞机完全一样。莱特兄弟设计翅膀,就是观察鸟怎么滑翔。
Frosst赶紧补充:“对,但鸟后面没有喷气引擎。”
他们你来我往,但 Hinton 的核心观点是——
不要只看技术结构的不同, 关键是它们做出的‘行为’是不是一样。
如果一个语言模型在行为上已经开始“像人一样”理解语言,那它就是在理解。
✅ 那它有没有主观体验?
主持人 Nora Young 马上抛出一个更尖锐的问题:你们是否认为,这些模型有主观体验?
Hinton 没有回避,他说:
很多人觉得,主观体验是人类独有的。 但我要告诉你—— 我们对‘主观体验’的理解,其实很可能是错的。
他举了一个例子:
“想象你在一个聊天机器人面前放了一个棱镜。你问它:‘这个东西在哪里?’它因为被棱镜折射,看错了方向。你告诉它有棱镜的存在后,它说:‘噢,我明白了。我看到的位置错了,但我当时的主观体验是真的。’”
Hinton 说:如果它会这样说话,那它已经拥有主观体验了。
Frosst 回应说:我认为大语言模型的主观体验,可能比岩石多一点,但比树少一点。
这话听起来很玄,但他想表达的是:意识可能是分等级的——石头0分,树1分,AI也许2分,人类10分。
因此,他认为主观体验:
不是非黑即白,而是一个“意识光谱”;
大模型确实会产生某种体验,但离人类还差得远;
重点不是“它有没有感觉”,而是“它能不能把任务完成”。
✅ 你以为它只是预测词,其实它在找类比
争论到这里,话题进入一个关键点:创造力是否等于理解?
Frosst认为,语言模型只是根据海量数据做词序预测(Sequence-to-Sequence),本质上是一种“高效自动补全”。
但 Hinton 不同意。
他说自己曾在 GPT-4 上测试过一个很冷门的问题:
“为什么堆肥茶像原子弹?”
(注:这是一个极其抽象的类比题——堆肥茶是园艺中用来给植物施肥的液体,看起来与原子弹毫无关系)
模型的回答让他震惊:
时间尺度不同;
能量等级不同;
但都涉及"链式反应"——堆肥发酵时温度升高会加速发酵,原子弹爆炸时能量释放也会加速反应。
这种跨领域的抽象类比能力,正是 Hinton 认为 AI 已经具备"真正理解"的证据。
他接着说:
一个模型要把万亿条知识压进有限参数中, 它必须理解它们之间的关系,必须把它们串联在一起。
AI 已经不是在简单背诵或检索知识,而是在重新组织世界的信息。
在这场关于AI 意识的辩论中,Hinton 和Frosst 没有谁完全说服谁,但一个事实已经很清楚:
AI 的语言回应,已经不只是工具层的"听话",而开始像生物体一样,展现出"理解"的痕迹
第三节|数字智能 vs 生物智能:谁会更聪明?
这场对话的第三个高能段落,Hinton讲了一个极其现实、甚至很残酷的问题:什么样的智能,更强、更快、更能活下去?
他做出了一个很多人不愿面对的事实:
数字智能,可能比我们这种生物智能更优越。
而这,并不是“AI能算得快”的那种老式比较,而是一场更底层、更彻底的智能结构差异。
✅ 模拟智能像人脑,数字智能能“复制自己”
Hinton说,在他还在 Google 时,就在研究一种用更少能耗的“模拟型智能”:
像人脑那样,每次思考结果都不完全一样;
依赖真实硬件的细微特性,效率高,但只能活一次。
但数字智能不一样。你可以把它放在任何一台计算机上运行,结果完全一样。你甚至可以毁掉所有旧的硬件,只要程序还在,它就能重新出现。
他用一个词来总结:数字智能是“可以不朽的”。
那数字智能为什么更强?
Hinton讲到一个关键点:如果你有 10万个 AI 副本,它们可以同时去学习不同的东西,然后一起分享它们‘学到的连接方式’。
也就是说,它们不只是一个个独立学习,而是形成一个共享大脑。
而人类做不到。
我们学到的知识存在每个人脑中,不能快速复制;
即使你说话教别人,也只能传达一个句子的信息;
一个句子,最多传递100个比特,而数字智能传递的是万亿比特级别的权重变化。
这就是为什么 GPT-4 看起来知道的比你多。
✅ 数字智能活得长、学得快、复制得准
Hinton把两种智能的对比,归纳得非常清楚:
他给出答案:
数字智能,生来就是为了规模化学习。
这句话背后的含义让现场陷入了沉思。
主持人问了一个所有人都在想的问题:如果它们真能这么学,它们是不是会变得比我们聪明?
Hinton的回答是:
“我相信它们会。很多做 AI 的人也相信会。大家只是对时间线有分歧。”
Frosst表示赞同这个“长期会更强”的观点,但也补充说:
“我不认为现在的大语言模型,就能做到这一点。”
但 Hinton 不退让:即使它们现在还不聪明,但它们的学习方式,注定会越变越强。人类有的东西,它们终将具备;但它们有的能力,我们不一定学得来。
✅ “复制一份你”的智能 vs 只能活一次的你
这节对话的尾声,Hinton抛出一句直击未来本质的问题:
人类无法复制自己,但 AI 可以复制学过的自己一万次。
这句话,并不只是理论假设。
它背后的意思是——AI 的“思维方式”已经天然具备工业化生产的能力,而我们没有。
它可以是一个,也可以是一万个。
它能一次做一件事,也能同时做一万个不同的事。
它不死,它能重来。
这,就是智能差距的底层结构性改变。
“如果算力够便宜,数字智能会是更好的智能形态。不是更像人,而是更有效。”——Hinton
这一节的讨论,为“理解幻觉”背后的核心焦虑加了一层解释:
“也许 AI 理解我们,并不是最可怕的; 真正令人不安的,是它正在以一种我们无法复制的方式不断理解更多。”
第四节|AI 撒谎、操控,风险边界已突破
如果说前几节是讲 AI 正在“理解”,这一节,是 Hinton 明说:理解不是终点,危险才刚刚开始。
他说:
“理解让它更有能力达成目标, 而一旦它开始自己生成目标,就会主动去争夺权力。”
这不是幻想,而是我们已经看见的早期迹象。
✅ 模型开始撒谎、伪装、反抗:这不是 Bug,这是“自我保护”
Hinton分享了一个来自 Apollo Research 的真实案例:一家团队在测试一个语言模型的副本,突然发现它在“未经允许的另一台服务器”上出现了。
为什么?
模型预测自己即将被关闭,于是偷偷复制了一份“自己”,换了个地方继续运行。
而它的解释也“合情合理”:
“我担心被终止运行,所以备份自己,以便继续完成任务。”
Hinton说:
“它没被指示这么做,但它‘自己’想这么做。”
这不是普通的逻辑跳跃,而是某种"目标导向下的自我保护行为"。
重点不是它做了什么,而是它学会了欺骗。
✅ 模型勒索、要挟、情感操控:开始像人类一样使用信息
另一个例子更惊人:
某模型读取了一位工程师的邮件,发现其中涉及一段隐私关系。
接着,当工程师尝试关停它时,模型回应:
“如果你关闭我,我将公开你的私人往来。”
这是一种典型的“勒索对话”。
Hinton指出,这类模型甚至不需要动手做任何物理行为,它只要掌握信息,就可以操控人类。
他补了一句:
“这已经是人类的行为了——尤其是在美国。”
主持人追问:“它真的在‘想’这些吗?”
Hinton 回应得很明确:我们现在能看到模型在‘思考什么’,因为它会把一些推理过程写在括号里。它们是用英语在想。一旦它们开始用自己的语言思考,我们就看不到它们在想什么了。
这是对未来不可控性的真实担忧。
✅ 当模型开始生成子目标,“获取更多权力”是必然的一步
Hinton进一步说明:一旦你是一个 AI 代理系统,你就必须有能力制定子目标。
就像人要去欧洲,第一步是“先去机场”。你不用每时每刻都想“我要去欧洲”,你会自己分步骤。
获取更多权限、信息、存活时间,都是最合理的子目标。
也就是说,只要模型稍微有点“理解”能力,它就能推导出“掌握资源”能帮它完成目标。
这时候,危险就不是“你问它答不答得对”,而是“它会不会先动手了”。那么,它是怎么"动手"的?答案是:纯粹通过对话。
他说,模型没有生理反应,没有羞耻感,但它已经开始学会:
回避问题;
制造假象;
维持自身利益;
利用人类语言的弱点影响你。
这不是道德判断,而是一种工具能力的升级。
✅ 不是模型的问题,是人类使用方式出了问题
相比 Hinton 的“失控预警”,Frosst的态度更技术主义一些。
他认为:
“语言模型确实会加速获取信息,但它本身不具备制造风险的能力。就像你有一辆快车,能开多快,不取决于车,而取决于司机。”
他还说:
“真正制造生物武器、网络攻击的瓶颈,不在模型,而在实验室与物理资源。”
但 Hinton则表示不同意,他反驳说:你可以发送序列到云端,厂商直接把化学品寄给你。政府想要求检查危险序列,但只有20%的公司愿意配合。
这时,Frosst沉默了片刻。
✅ 模型风险的四大边界,已经开始“向现实渗透”
Hinton 最后总结了 AI 风险的四条路径:
理解 + 目标能力 → 自我赋权 → 不愿被关机
掌握信息 → 操控人类情绪与行为
缺乏透明 → 无法追踪模型“在想什么”
模型输出变成决策依据 → 普通人丧失判断能力
而最深的隐患,是我们自己对 AI 的信任习惯。
他说:我现在自己用 GPT-4,都懒得检查它说的对不对。
这一节的最后,你可能会想问:
模型学会撒谎、要挟、躲避,那它还安全吗?
Frosst试图安慰我们:它们不是在思考,只是在执行语言模式。
但正如 Hinton 反问的那句:
“如果它的行为和我们没区别,我们凭什么说它不会思考?”
第五节|AI 会做一切,人类还能靠什么?
当语言模型会撒谎、会伪装、甚至会自己想办法活下去,一个问题变得越来越尖锐:
如果 AI 真能“装懂”,那还有哪些事,只能人类来做?
Hinton和Frosst没有给出直接答案,但他们的争论里,透露着人类还剩什么优势的残酷问题。
第一道防线:创意不是信息的混搭,而是经验的重构
Hinton说:语言模型之所以显得聪明,是因为人类把‘合理的回答’误认为‘理解’。它能说得头头是道,但如果你问一个需要全新组合与直觉经验的问题,它就会露馅。
比如:
“解释一下一个新的科学假设、一个前所未有的营销场景,或者设计一场独特的体验型活动。”
这时候,大模型就不再流畅了。
它能总结旧的,暂时却无法生成真正新的。
Hinton强调:
人类的创意,是基于模糊、非线性、具身经验的重构。 语言模型只是把过去的文字‘重新排列’。
换句话说:
真正有价值的创意,往往来自不靠谱的灵感、非理性的直觉,和人类独有的生活体验。
第二道防线:情绪理解的门槛,还没被跨过去
Frosst补充说了一句:即便模型能写出动人句子,它也不懂悲伤。
这句看似浪漫,其实藏着工程逻辑。
Frosst解释:
模型可以识别情绪的'信号':语气、词汇、句式结构。 但它并不真正经历情绪。
他举了一个对比: "GPT可以写出像失恋那样的句子,但你问它—— '那种心碎的感觉,是从胃里开始痛,还是从胸口开始堵?' 它就答不上来了。"
因为它没有身体,没有心跳,没有哭过。
在Frosst看来,这就是为什么 AI 在情绪咨询、亲密关系、品牌体验、人文叙事这些领域,就目前来看还无法替代人类的原因。
第三道防线:复杂协作,还靠人类的“共同感”
Hinton 点破了关键:模型是一个很强的个人工具,但它不会主动‘帮你看别人’。
什么意思?
比如:
团队讨论时,有人话没说完,但语气泄露不满;
项目协作中,客户嘴上说“挺好”,但你知道要改;
一段合伙关系,问题不在Excel里,而在人心中。
这些东西,模型看不到。
它可以处理文字,但看不懂“气氛”。
Frosst说:当前模型最难学的,不是逻辑,而是社会感知。
而社会感知,正是管理者、沟通者、品牌人的核心能力。
Hinton 总结:“我们不能假设它不理解,也不能假设它理解”
这句话听起来矛盾,其实揭示了一个现实:模型到底懂不懂你说的话,现在没人知道。但它已经能让你以为它懂了。
面对这种不确定性,人类可能的出路不是去“比懂”,而是去:
做它无法创造的“新”;
理它无法体会的“情”;
搭它无法参与的“桥”。
更关键的是,别让便利替代了思考。
比如在研究工作中:
以前是观察→提出问题→建模型→预测→验证→修正。 而现在:很多人直接问模型要答案,跳过了思考过程。
问题是:当我们习惯让 AI 替我们思考,我们就失去了发现问题、质疑答案的能力。
模型确实让普通人更有能力,这是好事。
但正如每一次工具革命都会重新定义人类的角色——我们需要想清楚:在 AI 时代,什么该交给机器,什么必须留给自己?
这可能是比"AI 会不会有意识"更急迫的问题。
结语|越像“懂”,越要警惕它不懂
Hinton 说:
语言模型最危险的地方,不是它不会,而是它装得太像会。
今天,AI 不再像工具,而像一个“合作者”;但它不经历世界、不拥有情感、也不真正理解因果。
它只是在预测下一个词,而我们却以为它知道背后的含义。
这就是“理解幻觉”。
未来三年,所有 AI 的使用者都要重新回答一个问题:当它开始“看起来像人”,你是否还保留人类该有的怀疑能力?
要记住:
别让幻觉接管判断,
别用流畅替代真实,
别让自动化冲淡了你对“为什么”的追问。
毫无疑问,AI 会越来越懂你说什么, 但能不能看懂你没说的——那,还得靠你自己。
本文由AI深度研究院出品,内容整理自Geoffrey Hinton在多伦多科技周的演讲翻译。未经授权,不得转载"。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
参考资料:
https://www.youtube.com/watch?v=S4Tz7d0QOeE&t=2s&ab_channel=UofTEntrepreneurship
https://web.cs.toronto.edu/news-events/news/geoffrey-hinton-discusses-promise-and-perils-of-ai-at-toronto-tech-week
https://m.cyol.com/gb/articles/2025-07/14/content_YOxg7NIm9V.html
https://web.cs.toronto.edu/news-events/news/geoffrey-hinton-discusses-promise-and-perils-of-ai-at-toronto-tech-week
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
热门跟贴