打开网易新闻 查看精彩图片

认知神经科学前沿文献分享

打开网易新闻 查看精彩图片

基本信息

Title:Dorsal prefrontal cortex drives perseverative behavior in mice

发表时间:2026-04-25

发表期刊:Nature Communications

影响因子:15.7

获取原文:

1. 添加小助手:PSY-Brain-Frontier即可获取PDF版本

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

研究背景

动物做概率性反转学习时,经常出现一种 perseveration(重复倾向):仅仅因为刚才做了某个动作,就更可能再做一次。很多物种、很多任务里都能看到这个现象,但一直没人说清楚它到底有什么用、神经机制是什么,尤其是,它和 reward-guided learning(奖励引导学习)是不是共用同一套前额叶回路

在这篇文章中,作者把问题收窄了:在同一个动态奖励任务里,怎么把重复倾向和奖励寻求拆开,各自找到对应的神经表征和因果脑区?

打开网易新闻 查看精彩图片

实验设计与方法逻辑

作者让头固定小鼠做概率性反转学习任务:左右转轮对应的高奖励侧按区块切换,然后进行了他的分析:

  1. 先比对了 13 个行为模型,选定同时包含 perseverative variable(P)和 reward-seeking variable(R)的 PR model 作为分析框架

  2. 然后用 Neuropixels 记录多个前脑区域的群体活动,重点看 fixation period(注视期,这个窗口还不允许动作)哪些区域能解码 upcoming choice、P 和 R,并通过 session permutation 检验排除时序自相关伪影

  3. 最后,在 choice period 或 outcome period 分别对前部次级运动皮层(anterior secondary motor cortex,MOs)和内侧前额叶皮层(medial prefrontal cortex,mPFC)做光遗传抑制,比较准确率、重复概率、反应时和后续学习的变化

把行为模型、神经表征、因果操控,三条线串在一起,讲了一个比较完整的故事

打开网易新闻 查看精彩图片

核心发现

发现一:小鼠的选择被重复倾向强力驱动,重复时反应更快

奖励概率反转后,小鼠还是持续偏向之前的选择,表现比理想观察者差。行为拟合显示,PR model 里 P 成分的权重大于 R。重复上一选择的试次反应更快,切换选择则变慢;|P| 越大反应越快,|R| 和反应时没有显著关系

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

Fig. 1 展示了小鼠在区块切换后长时间停在旧选择上,含 perseveration 的模型拟合最好;Fig. 2 显示 repeat trials 比 switch trials 更快,重复倾向和快速执行状态绑在一起。
发现二:选择前的 MOs 特异性携带 perseverative 决策变量

Neuropixels 记录显示,fixation period 内只有 MOs 的群体活动能显著解码 upcoming choice 和 P 变量;R 在这个时间窗没有被任何记录区域稳健解码。控制 upcoming choice 之后,MOs 活动仍然和连续的 P 显著相关,和 R 不显著相关——说明它不只是二元动作标签,更接近一个选择前的 perseverative decision variable

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

Fig. 4 展示了 fixation period 里 MOs 对 upcoming choice 和 P 的独特解码优势;Fig. 5 进一步表明,扣除 choice 影响后这种关系还在,MOs 的信号更像连续决策变量,不是单纯的 motor preparation
发现三:抑制 MOs 减少重复选择并拖慢反应,mPFC 更影响反馈后学习

在 choice period 抑制 MOs,准确率下降、重复上一选择的概率降低、反应时间拉长;同一时间窗抑制 mPFC 没有同类效应。反过来,在 outcome period 连续半 session 抑制 mPFC,区块反转后的学习变慢,MOs 在这个操控下作用较弱。两者在任务里有明确的功能分工

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

Fig. 6 展示了 choice period 抑制 MOs 后准确率、重复概率和反应时同时变化;Fig. 7 显示 outcome period 抑制 mPFC 让反转后的学习曲线变慢,它更参与 reward-based updating

打开网易新闻 查看精彩图片

省流总结

这项研究在头固定小鼠的概率性反转学习里,把 perseveration 和奖励学习拆开了。选择前,前部 MOs 特异性表征 perseverative 决策变量,因果上驱动重复选择和快速执行;mPFC 更偏向反馈后的奖励学习。这些结论目前限于这个任务范式,不能直接推到人类或病理性 perseveration

分享人:天天

审核:PsyBrain 脑心前沿编辑部

你好,这里是「PsyBrain 脑心前沿

专注追踪全球认知神经科学的最尖端突破

视野直击 Nature, Science, Cell 正刊 及核心子刊与顶级大刊

每日速递「深度解读」与「前沿快讯

科研是一场探索未知的长跑,但你无需独行。欢迎加入PsyBrain 学术社群,和一群懂你的同行,共同丈量脑与心智的无垠前沿。

点击卡片进群,欢迎你的到来

一键关注,点亮星标 ⭐ 前沿不走丢!

打开网易新闻 查看精彩图片

一键分享,让更多人了解前沿