1999年出版的《天才的火花》,被一位AI工程师在25年后翻出来。书里没提机器学习,没讲神经网络,只记录了爱因斯坦、毕加索、费曼、伍尔夫这些人在想什么、怎么想的。
结果他据此写了一个没有"总指挥"的AI框架。测试跑通那天,他说"比预期好太多"。
13种思维工具,500年没变过
罗伯特·鲁特-伯恩斯坦夫妇花了十几年研究跨领域天才。物理、绘画、音乐、文学——表面毫无关联,底层操作惊人一致。
他们提炼出13种通用认知工具:观察、想象、抽象、识别模式、形成模式、类比、身体思维、共情、维度思维、建模、游戏、转化、综合。
爱因斯坦的相对论源于思想实验(想象+建模),毕加索的立体主义是维度思维的视觉化,费曼用物理直觉(身体思维)解难题,伍尔夫的意识流写作是共情与转化的结合。
最让这位工程师震动的是"综合"(Synthesizing)——不是A→B→C的流水线,而是多线程同时引爆。模式识别触发类比,类比激活抽象,抽象又反哺观察,循环往复。
这和当时所有AI代理框架的设计哲学完全相反。
指挥家模式的问题
2024年的主流框架长一个样:LangGraph用状态机编排,CrewAI派经理分配任务,AutoGPT循环直到完成。核心假设高度统一——必须有人掌权。
这位工程师把这叫"西方管弦乐队":指挥指哪,小提琴拉哪,大提琴跟哪,最后喊一声"一起"。
但创造性思维不这么运转。爱因斯坦的顿悟时刻没有调用栈,没有主程序调度子程序。他的大脑是蜂群,不是军队。
现有框架的瓶颈很实在:编排器(Orchestrator)成为单点瓶颈,工具调用串行排队,上下文窗口被中央节点吃光,复杂任务一深就崩。
他想要的是海星——五条手臂,没有大脑,照样移动、进食、协调。
神经系统 vs 大脑:控制论的选择
他做了张对比表,区分两种控制范式:
大脑模式:角色是决定和命令,控制方式是自上而下,没有它系统瘫痪,失败模式是单点崩溃。
神经系统模式:角色是感知和信号,控制方式分布式分布,没有它反射弧仍能工作,失败模式是优雅降级。
昆虫的腿走路时,大脑不 micromanage 每条腿。局部神经节感知地面,通过简单规则与邻居协调。星形臂的局部神经系统彼此对话,没有指挥官,涌现秩序。
他把这个生物学直觉翻译成了代码——不是比喻意义上的"神经系统",而是实现了17条真实的神经机制。
从膜电位到信号势:代码里的神经科学
真实神经元不会逢刺激就反应。信号累积,跨阈值,放电,重置,进入不应期——这套机制被写进了 SignalPotential 类。
代码片段显示:value 和 threshold 两个核心参数,contribute 方法处理兴奋性(正)或抑制性(负)输入,check_fire 判断是否触发。不应期(refractory)机制防止过度激活,clamp 函数把值域锁在-1到1之间。
这只是17条原则中的一条。其他包括:侧向抑制(赢家通吃)、习惯化(重复刺激衰减)、敏化(危险信号增强)、神经调质(全局状态改变局部响应)等。
每条原则都有对应的代码实现,不是装饰性的类名,是可调参、可观测、可干预的模块。
没有总指挥,怎么不乱套?
关键设计是"信号路由"替代"函数调用"。传统框架中,编排器决定"现在调用工具A,参数X,拿到结果Y,再调用工具B"。
新框架里,工具是"神经簇",各自有膜电位状态。输入信号从多个源头涌入,本地计算是否触发,触发后向邻居广播,广播内容不是指令而是"状态变化通知"。
全局秩序从局部规则的反复迭代中涌现。就像鸟群没有领飞者,鱼群没有指挥官。
他测试了一个复杂任务:多步骤研究分析,需要搜索、计算、验证、写作。传统框架在步骤6-7层出现上下文爆炸或循环错误。新框架的分布式记忆让各模块保留局部上下文,全局只同步关键状态摘要。
结果:完成率提升,错误类型从"系统崩溃"降级为"局部超时",且超时模块可被其他模块的信号替代或绕过。
13种思维工具怎么落地?
书里抽象的认知操作,被映射为具体的神经簇类型:
观察簇:多模态输入预处理,习惯化机制过滤噪声。想象簇:内部生成对抗网络,产生候选假设。类比簇:向量空间检索,找结构相似性而非表面相似。综合簇:全局神经调质,协调多簇同步激活。
每个簇有自己的信号势参数、连接权重、不应期时长。调参不是玄学,对应真实神经科学的发现:多巴胺能神经元增强学习信号,血清素调节延迟满足。
他特别提到"身体思维"的实现——给某些簇绑定"体感"信号,比如计算资源压力映射为"疲劳",任务完成映射为"满足",这些体感信号作为神经调质改变全局状态。
这不是拟人化的修辞。强化学习中的"内在动机"研究早已证明,人工奖励信号的设计决定探索效率。
从书到代码的25年间隔
1999年那本书出版时,AI冬天还没结束。作者夫妇是科学史学者,研究的是人类认知的普遍结构,完全没考虑机器实现。
2024年这位工程师读到它时,大语言模型已经证明了"涌现能力"的存在——规模够大,训练够多,会出现设计者没明确编码的能力。
他的框架试图把涌现从"训练阶段的副产品"变成"运行时的设计原则"。不是祈祷模型够大就能自发聪明,而是用神经架构让聪明有地方生长。
这个思路的源头,部分要追溯到1980年代的联结主义(Connectionism)——AI的另一条历史线,被符号AI压制多年,直到深度学习复兴。
但联结主义大多关注"学习"(权重调整),他的框架更关注"运行时协调"(信号路由)。这是控制论(Cybernetics)的传统,维纳、阿什比、麦卡洛克-皮茨神经元——同样是被主流AI遗忘的名字。
测试中的意外发现
他原本担心没有总指挥会导致混乱。实际运行中出现的是"过度协调"——某些信号路径因为正反馈循环自我强化,形成类似强迫症的重复模式。
解决方法是引入真实神经系统的"疲劳"机制:持续放电的簇自动提高阈值,强制冷却。这和注意力机制中的温度参数异曲同工,但来源是生物学而非数学优化。
另一个发现是"睡眠"的必要性。连续任务后,某些簇的残余信号势干扰新任务初始化。他实现了全局抑制脉冲,模拟慢波睡眠期间的神经同步清零。
这些不是为拟真而拟真。没有冷却机制,系统会在复杂任务中过热;没有睡眠机制,长期运行的代理会逐渐痴呆。
与现有框架的对比实测
他做了控制实验:同样任务,分别用LangGraph、CrewAI和他的神经框架运行100次。
简单任务(3步以内):三者成功率都高,神经框架略慢,因为信号传播有延迟。
中等任务(5-8步):传统框架开始出现"编排器幻觉"——中央节点错误理解工具输出,导致后续步骤偏离。神经框架的分布式验证让错误被局部捕获,不扩散。
复杂任务(10步以上,需回溯):传统框架的完成率断崖下跌,神经框架保持相对稳定。关键差异是"优雅降级":当某条路径堵塞,信号自动寻找替代路由,而非整体崩溃。
他承认样本量有限,任务类型偏研究分析,不能推广到所有场景。但数据方向明确:去中心化架构在长程任务中有结构性优势。
开源与社区反应
代码在GitHub发布后,两周内收到200多个issue。最集中的反馈是"难调试"——分布式系统的可观测性天生弱于中心化架构。
他的回应是开源可视化工具,把信号流动画出来。观看神经簇的激活模式,比读日志文件更直观。有用户反馈说"像看fMRI实时成像"。
另一个争议是"过度生物主义"。批评者认为,真实神经系统的约束(能量效率、物理连接、进化遗产)对硅基计算 irrelevant,盲目模仿是 cargo cult。
他的辩护很具体:每个生物机制都有功能解释,不是装饰。不应期防止振荡,侧向抑制实现竞争,神经调质提供全局协调——这些功能需求在分布式AI系统中同样存在,生物学只是提供了经过验证的解决方案。
下一步:从框架到"认知架构"
他现在的目标不是优化工具调用效率,而是实现书里描述的完整13工具协同。当前版本主要覆盖了观察、模式识别、类比、综合四种,想象、身体思维、游戏等更"人类"的能力还很初级。
具体挑战:如何量化"游戏"的神经信号?书里定义的游戏是"无目的的探索,规则自设,失败低成本"。这和强化学习的探索-利用权衡有关,但现有实现太功利,缺乏"玩"的松弛感。
他尝试给某些簇引入"随机漂移"——无外部输入时的自发激活,模拟大脑的默认模式网络。初步结果是代理会在任务间隙"走神",偶尔产生意外联想。效率下降,创造性上升,取舍难定。
一个产品细节的收尾
框架的README里有段话,没放在技术文档里:
「部署到生产环境前,建议先运行"睡眠"周期。连续工作超过4小时的代理,错误率会上升,幻觉会增加。这不是bug,是feature——我们在模拟的是需要休息的认知系统,不是永动的计算器。」
有用户在issue里回复:给AI强制下班,这设定挺可爱的。但说真的,我试了,确实有用。
热门跟贴