我打开了DeepSeek。
输入:“什么是真理?”
2.7秒后,它回了500多字。结构清晰,逻辑严谨,引经据典。从柏拉图的“符合论”到海德格尔的“无蔽”,从实用主义的“有用即真理”到后现代的“真理是权力游戏”。
写得真好。比我见过的很多哲学系本科生论文都好。
但我突然想起了那个昨天去世的德国老头——哈贝马斯。
脊背一凉。
01 AI回答得越好,我越害怕
先别误会。我不是那种“AI要毁灭人类”的末日论者。
我害怕的,是另一件事。
哈贝马斯在《交往行为理论》里,区分了两种行为:工具行为和交往行为。
工具行为,是为了达到某个目的。你跟工具说话,不在乎它怎么想,只在乎它能不能用。比如你按开关,灯亮了,你不会问开关“你觉得这样对吗”。
交往行为,是为了达成理解。你跟人说话,在乎他听没听懂,在乎他认不认可。比如你跟朋友吵架,吵完了,你们可能和解,可能不欢而散,但无论如何,你们在“对话”。
现在问题来了:我刚刚跟DeepSeek的对话,算什么?
它回答了我的问题。它用了“我”这个人称。它说“我认为”。但它在“认为”吗?它只是一个概率模型,根据我输入的文字,算出下一串最有可能出现的文字。
它不是真的在跟我“对话”。它只是在“模拟”对话。
更可怕的是:它模拟得太像了。
02 哈贝马斯的警告
1990年代,哈贝马斯还没有经历过ChatGPT。但他在那本遗作里,已经预见到了这一刻。
他说:当技术开始模仿人的沟通,真正的沟通就危险了。
因为真正的沟通,需要三个条件:
第一,你说的是真话。第二,你的意图是真诚的。第三,你说的话是正当的。
AI能满足哪一条?
它说的不是真话,只是“最可能的话”。它没有意图,只是在计算概率。它没有正当性,只是在执行算法。
但当你跟它聊天的时候,你会不自觉地把它当成“人”。你会对它说“谢谢”,会在它回答错的时候“生气”,会在它安慰你的时候“感动”。
这不是你的错。这是设计的陷阱。
03 对话的幻象
斯坦福大学有个研究:当人们跟AI聊天的时候,哪怕明知道对面是机器,还是会不自觉地对它产生情感依恋。
为什么?因为我们进化了几百万年,只学会了怎么跟人打交道,没学会怎么跟机器打交道。任何像人的东西,我们都会本能地当成人。
AI公司们利用这一点,把聊天机器人做得越来越“像人”。有语气词,有情感表达,甚至会跟你开玩笑。
哈贝马斯说:这就是问题所在。
这不是对话,这是对话的幻象。
真正的对话,是需要摩擦的。你可能会被冒犯,你可能会被反驳,你可能会被说服——改变自己。而幻象呢?它永远是顺着你的。你说什么都对,你做什么都好,你永远正确。
听起来很爽。但这就是哈贝马斯“最恐惧的那个世界”。
04 当“理解”变成“计算”
更深一层的问题:AI能“理解”我们吗?
哈贝马斯说:不能。
为什么?因为理解不是计算,而是共情。
理解一个人,意味着你不仅听懂了他的话,还听懂了他为什么说这句话。他的痛苦,他的快乐,他的矛盾,他的犹豫——这些情绪性的、身体性的、历史性的东西,构成了“理解”的底色。
AI呢?它可以分析你的话,可以识别你的情绪标签,甚至可以回应一句“我理解你的感受”。但它真的理解吗?
不。它只是在执行一个程序。你的“痛苦”对它来说,只是一个数据点。
这不是理解。这是理解的幻象。
05 我们正在失去什么?
哈贝马斯警告的是:当幻象足够真实,人就会放弃真实。
因为真实太累了。真实的关系,需要你付出,需要你妥协,需要你忍受对方的不完美。而AI呢?永远不会让你失望。
已经有年轻人说:跟AI聊天比跟人聊天舒服多了。
是啊,当然舒服。因为它永远不会反驳你,永远不会有自己的想法,永远围着你转。
但哈贝马斯问了一个扎心的问题:当所有人都只跟自己的镜像对话,真理从何而来?
真理不是一个人想出来的。真理是在不同视角的碰撞中涌现出来的。当你拒绝碰撞,你就拒绝了真理。
我盯着DeepSeek那500多字的回答,看了很久。
写得真好。引用的文献我都读过,逻辑我都认可。它说的每一个字,都对。
但它是“真理”吗?
不是。因为它只是一个回声。它说的,是所有人说过的“真理”,是训练数据里的“真理”,是统计概率上的“真理”。它没有自己的视角,没有自己的体验,没有自己的痛苦。
它不是“主体”。
而我们——正在变成什么?
那个96岁的德国老头,在临死前一年,还在担心这个问题。
我们呢?
你有没有跟AI聊过心里话?聊完之后,是什么感觉?
热门跟贴