▼ 扫码加小雅▼
免费解锁
3w+ 助教笔记
及直播回放路径
01
50 米洗车题,AI 真的翻车了吗?
有人吐槽说,不只是年味淡了,连「人味」都少了。
节目效果如何,当然见仁见智;但有一点几乎毋庸置疑——AI,以及更进一步的具身智能,正在加速进入公共生活;在可见的未来,它们将扮演越来越多角色。
年前,很多人还兴致勃勃地「挑战」AI。
方法很简单,甚至带点戏谑意味:「我要去洗车,洗车店离我家只有 50 米。我是走过去,还是开车过去?」
结果却颇具黑色幽默。
一众在各类榜单上风头正劲的大模型,纷纷进入严肃模式:开始精确测算时间成本、碳排放量、能源效率,甚至还把步行带来的健康收益一并纳入模型。
层层推导,逻辑严密,最后郑重其事地给出建议——走路。
这一刻的荒诞感,确实很强——这么多算力,这么多顶尖人才,最后「输」给了区区 50 米。
但细想一下,问题也许并不出在答案,而是出在「问题」本身。
对人来说,这个问法已经足够清晰。我们自动补全了所有语境:车就在楼下,钥匙在手里,洗车店就在门口——所谓「纠结」,更像是一种玩笑式的设问。
但在字面上,有一件关键信息从头到尾都没有出现——车现在停在哪。
既然「车的位置」不明确,AI 就必须自己补全,而它的补全方式,往往遵循概率最大化原则:
既然你在纠结走还是开,车大概不在你脚边;既然车不在脚边,那无论如何你都得走一段。
在这个补全下,「走路」就成了合理答案——看上去像犯傻,其实只是走了另一条理解路径。
02
我们靠语境,它靠概率。
我们在面对提问的时候,往往会不自觉地多思考几步:
为什么问这个?
是不是脑筋急转弯?
是不是有个没说出口的前提?
人类理解问题时,依赖的是大量未被说出的共识背景,大语言模型 AI 不会。
AI 在回答问题的时候,只看字面条件,字面给了什么,就处理什么;字面没有的,不会凭感觉补齐,也不会主动怀疑动机。
在它看来,这是一个真诚的规划请求。于是,它在现有条件下,推导出一个统计意义上最合理的答案。
它专注优化的是「回答质量」,不是「怀疑问题」的能力。
我们以为自己问的是「常识题」,它却当成了一道「信息不完全的优化题」。
▼ 扫码加小雅▼
免费解锁
3w+ 助教笔记
及直播回放路径
03
所谓「常识」,只是特定人群间的共享语境。
有时候,我们想当然觉得自己所知的是「常识」,但是我们忽略了:其实很多「常识」,只是特定人群间的共享语境。
有人问你「公司这样做合适吗?」
你几乎不用追问,就知道在说哪家公司。规模、行业、内部氛围、最近的风波——画面已经自动在脑海里展开。
但同一个问题在 AI 那里,「公司」只是又一个变量——没有规模,没有行业,没有历史——是空白的。
人脑靠经验补全,模型靠输入推断。谁都没有错,只是依赖的东西不一样。
这次 AI 「集体翻车」,更像是我们第一次清楚地看到,平时那些没说出口的隐藏前提,是如何一直默默支撑我们去理解问题的。
但这种「补全错误」,不只发生在 AI 身上。
《生活大爆炸》里有一句很经典的台词。
Penny 对 Leonard 说:
You have destroyed my ability to tolerate idiots!
你毁了我容忍傻瓜的能力!
04
当沟通质量的预期,被 AI 重塑:
当时看只是好笑,现在想想,有点微妙。
当一个人长期处在高度理性、过度分析的环境里,他对含混、随意、甚至不够严谨的表达,会越来越缺乏耐心。
绕圈子会让人烦;模糊表达会让人急;情绪先于逻辑,会让人下意识皱眉。
AI 也许还没有毁掉你容忍「傻瓜」的能力,但它确实在重塑你对沟通质量的预期。
可是,人与人之间的沟通,从来不是纯结构问题,它包含情绪、身份、防御、关系、权力……
AI 不需要「被」理解,但人需要,尤其是隔着屏幕时。
面对面交流,语气会替你解释,停顿会替你缓冲,眼神会替你兜底,但文字里没有这些。
一句「这个不太合理吧」,可能只是困惑,也可能被读成否定——可能你在拆解问题,对方却觉得是自己被拆解。
很多冲突不是因为立场差太远,而是彼此误判了对方在做什么。
有时只要能多说半句,气氛会完全不同:「我不是在否定你,我只是想看看风险」、「我不是反对方向,我只是担心执行细节」。
这些话当面说显得多余;但是隔着屏幕,却像缓冲垫——AI 不会脑补,人类会。
毕竟误解,有可能就发生在那一秒的脑补里:你以为自己在表达清楚,对方却在猜测动机;你以为只是讨论问题,对方却在琢磨态度。
屏幕那头的人,不了解你,看不见你的表情,他只能猜;而猜错,并不需要恶意。
▼孤阅的近期热门内容汇总▼
获取更多学习干货,点个⭐,不错过文章推送~
编辑|恺宸
排版|琳玥
热门跟贴