当AI开始自主做研究,我们真正需要的不是"超级博士生",而是一个能24小时运转、全球协作的分布式科研网络——这才是OpenAI前研究科学家David Dohan眼中"AI科研2.0"的核心命题。
从"单兵作战"到"蜂群协作"
当前AI科研的主流叙事,是让一个大模型像博士生一样独立完成从文献综述到实验设计的全流程。但Dohan提出了一个根本性质疑:这种"单智能体"模式,本质上是对人类科研组织的低效模仿。
「真正的科研从来不是一个人做的,」Dohan在访谈中强调,「实验室里有本科生、博士生、博士后、PI,每个人都在不同时间尺度上并行工作。」
他给出的替代方案极具颠覆性:异步大规模协作。这一概念直接借鉴了SETI@home——那个曾让全球数百万台家用电脑共同搜索地外文明的分布式计算项目。在AI科研的语境下,这意味着成百上千个智能体同时推进不同研究方向,彼此共享发现、复用成果,而非等待一个"超级智能体" sequentially(顺序地)完成任务。
这种架构的数学优势显而易见。假设单个智能体完成一项研究需要T时间,N个顺序执行的智能体需要N×T;而若它们能异步协作、有效共享中间成果,总时间可能趋近于T×log(N)甚至更低。科研的"并行化"不再是实验室内部的人际协调问题,而成为可工程化的系统架构问题。
为什么"博士生模拟器"是错误目标
Dohan对行业现状的批评直指要害:「目标是模拟一个PhD学生,这个想法本身就有问题。」
这一判断基于对科研生产函数的重新审视。人类博士生的培养周期是5-6年,其中大量时间消耗在技能习得、方向探索、失败迭代上。而AI系统理论上可以即时复制、永久记忆、全局同步——这些特性使得"从头培养一个AI博士生"成为计算资源的巨大浪费。
更深层的问题在于认知架构。人类科研者的思维是连续的、受生理限制的;AI智能体则可以被设计为"可随时暂停、恢复、分叉"的状态机。一个智能体在凌晨3点发现的新方法,可以被另一个时区的智能体立即继承并扩展,无需等待"原作者"醒来解释思路。这种"非连续性认知"是生物大脑无法实现的,却正是AI科研应该 exploit(利用)的根本优势。
Dohan将这一愿景称为"emulate a research institution"(模拟一个研究机构)而非"emulate a researcher"。机构层面的涌现特性——思想碰撞、方向分化、意外发现——才是科学革命的真正引擎。个体智能体的能力边界因此变得不那么重要,关键在于它们如何被组织、如何交互、如何形成"集体认知"。
技术路径:从工具链到生态
实现这一愿景需要突破当前AI科研的基础设施瓶颈。Dohan指出,现有系统大多是"工具集合"而非"协作生态":代码生成器、文献检索器、实验模拟器各自为政,缺乏统一的"科研总线"让它们高效交换信息。
他勾勒的技术栈包含三个关键层级:
最底层是"可验证计算"——确保智能体产生的每个中间结果都可被其他智能体独立检验,这是信任的基础;中间层是"语义共享协议",让不同架构、不同训练背景的智能体能理解彼此的"发现"(而不仅是原始数据);最上层是"动态任务分配",系统能根据全局进展实时调整资源投向,类似风险投资组合的管理逻辑。
这一架构的野心远超自动化实验。Dohan暗示,当协作规模达到临界点,系统可能展现出"科学直觉"的涌现特性——不是单个智能体的灵光一现,而是网络层面的模式识别。历史上,DNA双螺旋、CRISPR等突破都源于跨领域思想的意外碰撞;异步协作网络可以被设计为最大化这种碰撞概率的拓扑结构。
科研民主化的悖论与可能
Dohan的框架隐含着一个激进推论:如果科研可以像SETI@home那样分布式运行,那么参与门槛将急剧降低。不再需要百万美元的实验室设备,不再需要顶尖大学的教职身份,一个拥有足够算力的个人理论上可以部署自己的"微型研究所"。
但这同时带来张力。当AI智能体成为科研主体,"作者身份"如何界定?当发现以毫秒级速度产生,传统的同行评审如何跟上?Dohan没有回避这些难题,他认为解决方案必须内生于技术架构本身——例如,用"可复现性证明"替代"声誉背书"作为成果可信度的基础。
更具争议的是方向选择问题。人类PI的直觉判断,多大程度上可以被算法替代?Dohan的回应是务实的:初期系统仍需人类设定高层目标,但协作网络的"探索-利用"权衡可以比任何个体更理性。换句话说,AI不会取代科学家的"品味",但会迫使我们将这种品味形式化、可迭代、可批评。
距离这一愿景的实现,Dohan估计还有"几年而非几十年"。关键变量不是模型能力的线性提升,而是系统工程的范式转换——从造更好的"脑",到设计更好的"组织"。当最后一个阻碍异步协作的技术瓶颈被打破,科学发现的速度可能经历类似从手抄本到印刷术的质变。而这一次,"印刷机"本身也将参与写作。
热门跟贴