想象一下:你教一只猴子分辨两种圆点图案,它磕磕绊绊学会了。然后你打开一台电脑,里面跑着一个完全按生物学规则搭建的虚拟大脑——它从没"见过"那只猴子的任何数据——却交出了一模一样的作业,连犯错的方式都如出一辙。
这不是科幻设定。达特茅斯学院、MIT和纽约州立大学石溪分校的团队最近干了这件事,结果还顺便发现了一个连真·神经科学家都没注意到的脑区活动模式。论文发表在《Nature Communications》上。
先说说这个"假大脑"有多较真
市面上的AI模型大多走"功能模仿"路线:不管黑猫白猫,能像人说话就行。但这个叫Neuroblox的模型完全是另一套思路——它从单个神经元的连接方式开始,一层层往上搭,直到模拟出整个脑区的电信号和化学信号传递。
负责搭建的达特茅斯博士后Anand Pathak把细节抠到了令人发指的程度:两个神经元之间怎么牵手(突触连接)、乙酰胆碱这类神经调质怎么在大范围脑区里改写作业、信息怎么从一个脑区流转到另一个……全按教科书里的生理机制来。
然后团队给它布置了和动物一模一样的作业:看圆点图案,判断属于A类还是B类。这种"视觉类别学习"是神经科学里的经典任务,猴子、老鼠都做过。
结果?虚拟大脑的神经活动曲线和动物数据叠在一起,几乎重合。连学习曲线那种"今天会了明天又忘了"的锯齿状波动,都复刻得八九不离十。
senior作者、达特茅斯心理与脑科学教授Richard Granger的原话是:"它只是生成新的模拟脑活动图,之后才被拿来和实验室动物对比。两者吻合得如此惊人,有点令人震惊。"
更离谱的是"意外发现"
模型跑通之后,团队顺手翻了翻它的内部活动记录,发现有一群神经元的反应模式很奇怪——和主流理论预测的不太一样。
他们回头去查自己之前做的动物实验数据。这些数据早就公开发表,被同行翻来覆去分析过。结果真找到了:那群神经元确实有这个活动,但之前没人注意到。
这就像你按建筑图纸搭了个乐高城堡,搭完发现某个角落的结构和真城堡的老照片对上了,而那张照片里这个角落之前一直被忽略。
Granger说,这个发现本身"不是那种会改写教科书的突破",但它验证了一件事:当模型足够忠实于生物学,它不仅能复现已知现象,还能帮你看清数据里本来就存在、却被遗漏的模式。
为什么要费这么大劲?
直接拿动物做实验不香吗?香,但贵,且慢,且有伦理天花板。
MIT的Earl K. Miller教授(也是这篇论文的co-author)算过一笔账:一种神经疾病的新药,从靶点发现到临床试验,动辄十年十亿美金。很多药死在最后阶段,因为动物模型和人体反应对不上。
这个生物模拟平台的野心是:让药物筛选和疗效测试提前到"虚拟大脑"上跑,等筛得差不多了再进动物实验,最后才上人。风险前置,成本摊薄。
Miller、Granger和团队已经为此成立了公司Neuroblox.ai。石溪大学的Lilianne R. Mujica-Parodi教授(论文co-author,也是Neuroblox项目的首席研究员)出任CEO。按她的说法,这个平台要的是"更高效地发现、开发和改进神经治疗手段"。
这和我们熟悉的AI有什么区别?
现在的深度学习模型,比如GPT或者图像识别网络,本质是数学优化器:给你足够多的标注数据,它能找出统计规律,但内部怎么运作的,往往是黑箱。
这个脑模型走的是"白箱"路线。它的每一个计算步骤都对应着可解释的生理过程:钠钾泵怎么工作、动作电位怎么传导、多巴胺释放怎么改变突触强度。你可以打开任何一层,指着某段代码说"这对应的是海马体的CA3区"。
这种设计让两个事情成为可能:
一是干预模拟。比如你想测试"如果阿尔茨海默病早期淀粉样蛋白沉积在这个脑区,学习功能会怎么崩",可以在模型里精确地"病变"那个位置,看连锁反应,而不是给整只老鼠打药然后观察行为变化。
二是假设生成。就像这次发现的神经元活动模式,模型先提出"这里可能有东西",科学家再回实验室验证。方向反过来,效率不一样。
但别急着喊"颠覆"
论文本身很克制,没吹什么"取代动物实验"的牛。Granger多次强调,这是补充而非替代。模型能告诉你的,是"按现有生物学知识,系统应该这样响应";但真实大脑有没有按这个剧本走,最终还得靠实验说话。
目前这个版本完成的任务也相对简单:二分类视觉学习。更复杂的认知功能——工作记忆、决策、语言——的模拟还在迭代中。Miller提到团队已经在开发更新的版本,细节比论文里的更精细。
另一个限制是数据。模型虽然没"偷看"这次对比用的动物数据,但它依赖的生物学参数(比如某种神经元的放电特性、某条通路的连接概率)本身来自过去几十年的动物研究积累。换句话说,它是站在无数实验动物的肩膀上,而不是凭空顿悟。
一个值得玩味的细节
这个项目的资金来源包括美国国立卫生研究院(NIH)、陆军研究办公室等公立机构,也有私人基金会。Neuroblox.ai的成立意味着学术成果正在往商业转化走。
这引出一个老问题:当"虚拟病人"越来越逼真,制药公司的成本结构会变,但伦理边界怎么划?比如,如果一个脑模型能预测某种精神药物对特定基因型的反应,跳过动物实验直接上小规模人体试验,监管框架跟得上吗?
论文没讨论这些,但它们是这种技术路线必然会撞上的墙。
最后说点个人观感
读这篇论文时,我一直在想一个画面:两个学生做同一道数学题,一个用草稿纸手算,一个用计算器。如果计算器没内置任何题库,纯粹靠"理解"数学规则得出和手算一样的答案,那我们可以说这个计算器"懂"数学吗?
这个脑模型有点像那个理想的计算器。它没背过任何"标准答案",只是忠实地执行了生物学的运算规则,却和真大脑对上了暗号。
这种"对上"本身,既是对我们现有神经科学知识的肯定(说明书没白读),也是一记提醒:真实大脑的复杂度,可能还没超出"按规则搭建"能模拟的范围——至少在某些任务上。
至于那个被模型"提醒"才发现的神经元活动模式,后续会不会引出新的理论,还得看实验室的跟进。但至少,它证明了这种"模型先行、实验验证"的循环可以跑通。
对于天天和海量脑电数据打交道的神经科学家来说,这可能是个好消息:以后除了肉眼扫图和统计显著性,还多了一个会按生物学逻辑"挑刺"的虚拟同事。虽然它也会犯错,但至少错得明明白白,可以复盘。
热门跟贴