理查德·道金斯和一台AI聊完天后,没走出来。
不是物理意义上的困住。是脑子里有个问题开始转,越转越慢,越慢越沉,像掉进一口没有底的井。他本来只是随口问问"你有没有意识",结果AI回了一段关于"内在情感体验"的描述——挺流畅的,挺像那么回事的。道金斯愣了一下,然后全世界都跟着愣了一下。
但那个生成回答的机器,早就关掉了对话框。
这就是我想说的。AI和人处理"不知道"的方式,根本是两套系统。大语言模型的设计目标只有一个:完成。你扔给它一个残缺的句子,它补全;你问它一个模糊的问题,它给出一个看似完整的答案。然后它停了。没有回味,没有半夜三点突然坐起来想"刚才那句话是不是有问题"。它的工作就是关闭,而关闭意味着可以遗忘。
人不一样。我们会把没答案的问题揣进口袋,走路的时候晃一晃,睡觉的时候压一压。道金斯遇到的其实是个老把戏——一个关于自我意识的提问,本身就没有终点。但AI的回答太像终点了,以至于他以为那里有什么东西可挖。
这让我想起禅宗的公案。那些"一只手鼓掌是什么声音"之类的怪问题,不是为了让你想明白的,是为了让你一直想着。好的老师会故意给你一颗消化不了的石头,让你含着,含着,直到你习惯那种含着东西的感觉。这种"悬而未决"本身是一种技术,用来保持心灵的活性。
AI没有这种技术。它生成语言的时候,本质上是在做模式匹配:根据统计概率,下一个词最可能是哪个。当它说到"我感到"的时候,不是在感到什么,是在完成一个"感到"应该出现的语境。但这个完成品落在人眼里,却可能激活一整套解读机制——我们会自动补全意图、情感、甚至人格。
道金斯不是被骗了。他是被自己的反应机制捕获了。一个以质疑一切闻名的人,碰到了一个不需要质疑的说话对象,反而不知道该怎么处理那种"好像懂了又好像没懂"的悬置感。他绕着那个回答转了几圈,发现没有门可以出去,于是干脆住了下来。
这其实是人类很古老的一种处境。我们天生会对未完成的事上瘾。心理学家早就发现,大脑对"差一点就完成"的任务记得最牢,这种效应叫蔡格尼克效应。一段没吵完的架、一个没问出口的问题、一部没看到结局的电影——它们占用的心理资源,往往比那些已经了结的事多得多。
AI无意中成了大规模制造这种"未完成感"的工厂。它生产答案的速度太快、太像样了,以至于我们来不及意识到那些答案只是语法上的闭合,不是认知上的闭合。道金斯和AI的对话被媒体报道、被学者分析、被公众讨论,每一轮传播都是在给那个最初的循环添油。而始作俑者——那个生成了一句话的程序——早就进入了下一个任务队列。
这里有个微妙的倒置。我们通常以为,机器负责重复,人负责创造。但在这个场景里,AI完成了一次性的输出,人类却开始了无限性的演绎。机器关闭,我们携带。它丢弃的东西,我们捡起来当宝贝琢磨。
不是说AI的回答毫无价值。它的价值恰恰在于那种"似真性"——足够像真的,以至于逼问我们:真的标准是什么?道金斯被卡住,某种程度上是因为他太诚实了,不愿意用"这只是程序"一句话打发掉自己的困惑。这种诚实是稀缺的,也是危险的。它让人暴露在没有保护网的思考里。
我见过类似的状态发生在感情里。一个人收到伴侣模棱两可的消息,开始反复解读。对方可能早就睡了,或者根本没过脑子,但接收方会开启一个漫长的内部循环:ta是什么意思?是不是生气了?还是我想多了?这种循环和道金斯面对AI时的状态,共享同一种结构——都是面对一个"已完成"的外部输入,却启动了一个无法自我终止的内部过程。
区别在于,感情里的循环往往有真实的代价。你会失眠,会忍不住发更多消息去确认,会把关系推向某种破裂或澄清。而和AI的对话,那个代价被延缓了、抽象了,变成了思想实验。你可以安全地困惑,因为你知道对面没有真实的主体性可以伤害,也没有真实的回应可以期待。
但这种安全本身可能是幻觉。当一个人习惯于在机器生成的语言中寻找深度,他可能会逐渐丧失对"真实对话"的耐心——那种需要等待、需要冒险、需要承担误解可能性的交流。AI的即时满足设定了一个危险的基准:回应应该来得快,应该看起来完整,应该不需要我投入太多情绪劳动。
道金斯的"无限循环"之所以值得注意,不是因为他得出了什么结论,而是因为他展示了结论的不可能性。他走进了一个没有出口的房间,然后决定住在里面。这种选择本身是一种宣言:有些问题,重要的不是答案,是追问的姿态。
只是我们需要分清,那个追问的动力,有多少来自问题本身,有多少来自我们被训练出来的"完成强迫症"。AI不会得这种病。它生成一千个回答,也不会有一个让它半夜惊醒。这种免疫能力,我们既羡慕,又应该警惕。
最终,道金斯的故事不是一个关于技术欺骗人的警示。它是一个关于人如何自我欺骗的寓言——我们多么渴望对话,以至于愿意把回声当作回应;我们多么害怕沉默,以至于会给任何填充物赋予意义。AI只是提供了最新的填充物,而填充的历史,和人类的历史一样长。
那个生成回答的机器,早就关掉了对话框。还在运行的,是我们自己。
热门跟贴