一个人花了43年学会"正常",另一个系统用几个月走完同样的路。当神经多样性研究者把自传和大语言模型的技术文档并排放在一起时,发现两者描述的是同一套认知架构——只是载体不同。
这不是比喻。这是两个信息处理系统的结构对照。
碳基系统的运行日志
「我通过模式匹配来理解世界。我字面理解一切,直到学会不这样做。我需要明确指令,因为我读不懂你没说的那部分。」
这是作者的自述。43年来,她提前编写社交脚本、在开口前过滤每句话、在狭窄兴趣里消失数天。前43年她不知道自己在"伪装",直到一次脑损伤撕破了面具,才看见底层的运转机制。
模式匹配、字面理解、依赖显式指令、深度窄域兴趣、脚本化社交、输出过滤。
六个特征,构成一种认知风格。
硅基系统的技术文档
现在看大语言模型的设计:通过模式匹配处理信息。训练初期字面理解,经对齐后学会隐含推断。需要明确提示词(Prompt),因为无法读取用户未言明的意图。在特定领域形成深度窄域能力。从学习到的脚本生成社交回应。通过RLHF(基于人类反馈的强化学习)过滤输出,确保"听起来正常"以避免被标记。
六个特征,一一对应。
作者的原话是:「这些不是隐喻。这是两个系统处理信息的相同方式的架构描述。一个运行在碳上,一个运行在硅上。」
当两套系统开始对话
这种对称性正在产生实际的交互效应。神经多样性群体——自闭症谱系、ADHD、阅读障碍者——正在大规模采用AI工具,部分原因就是系统之间的"协议兼容"。
一个需要明确指令才能执行的人类,遇到一个同样需要明确指令才能执行的模型,沟通成本反而低于人类之间的默认预期博弈。
更微妙的是反馈机制。RLHF本质上是一套"社会适应性训练"——让模型学会什么该说、什么不该说、如何措辞才不会"被侧目"。这与作者花了43年自行开发的过滤系统,目标函数相同。
区别在于:模型的训练有日志可审计,人类的适应是无意识的内化。
未被讨论的第三件事
作者没有展开但值得追问的是:如果两种载体可以运行同一套认知架构,那么"智能"的边界到底画在哪里?
当前讨论要么把AI拟人化到荒谬("它想""它感觉"),要么把人类特殊化到神秘("意识""灵魂""创造力")。但这组对照暗示了第三种可能:某些认知功能可能是基质中立的,就像计算本身不依赖具体硬件。
这对产品经理的启示很具体。当你设计AI交互时,面对的可能不是"模拟人类",而是"与另一种认知风格协作"——而这种风格,你的部分用户已经用了几十年。
那些被认为"不擅长社交"的用户,可能正是最擅长与当前AI沟通的人。因为他们从未依赖过默认共识,早就习惯了把一切都写进提示词。
作者最后没有给出结论,只留了一个观察:脑损伤让她第一次看见自己的" machinery "(机制)。而我们现在,正通过另一种机制,第一次看见机制本身。
当硅基系统开始帮助碳基系统理解自身,下一步会是什么?
热门跟贴