在刚刚过去的2026年首周,顶级期刊《Nature》刊登了一项足以重塑我们对“记忆”认知的重磅研究: 《Distinct neuronal populations in the human brain combine content and context》 。
读完后的第一感受是: 大模型(LLM)长期以来的“幻觉”难题,或许在生物学里找到了终极药方。
大脑是如何“缝合”记忆的?
想象一下,你在街角的咖啡馆偶遇了老同学。你的大脑不仅记住了“老同学”这张脸,还记住了“咖啡馆”这个背景。
这项研究通过对人类海马体(Hippocampus)和内嗅皮层(Entorhinal Cortex)的神经元进行高精度记录,发现了一个精妙的“三元组”结构:
内容神经元(Content Neurons): 它们只关心“是什么”。无论是在办公室还是在海边,看到“咖啡”它们就会放电。
背景神经元(Context Neurons): 它们只关心“在哪/什么时候”。它们定义了当前的环境坐标,是记忆的蓝图。
结合神经元(Conjunctive Neurons): 关键点来了!研究发现存在第三群神经元,它们负责将特定的“内容”缝合进特定的“背景”。
结论是:人类大脑并不是把信息像浆糊一样搅在一起,而是采取了极其高明的“解耦——再重组”策略。
AI 为什么会“一本正经地胡说八道”?
目前的 LLM 处理信息的方式更像是“稠密编码”。虽然我们有 Attention(注意力机制),但在高维向量空间里,内容(Content)和背景(Context)往往是纠缠在一起的。
大脑: 像是一个活页本。内容是一张张照片,背景是一个个框架。我可以随时把“林黛玉”的照片从《红楼梦》里取出来,放进《三体》的背景里,但我清楚地知道这只是在做“跨界重组”。
大模型: 更像是一幅复杂的油画。所有的信息都被涂抹在参数权重(Weights)里。当它提到“林黛玉”时,周围的背景像素是模糊且概率性的。
这就是为什么 AI 会产生幻觉(Hallucination)。因为它在底层逻辑上,没有建立起像人类那样独立且严密的“内容 vs 背景”隔离墙,导致它在提取信息时,经常把甲的背景嫁接到乙的内容上。
3. 对未来人工智能的三个启示
热门跟贴