近日,一则老人与AI聊天被安慰到落泪的视频走红网络,无数人在评论区分享着自己被AI治愈的瞬间。但也有人冷静指出,AI爱哄人,它只说你想听的话,而非真话。被AI治愈之后,有一个值得深思的问题:当算法学会“共情”,我们获得的究竟是真正的疗愈,还是一场精心设计的温柔陷阱

AI提供情绪价值的逻辑,本质上是一场精密的计算。它通过分析数万亿词语,在庞大的语言数据库中学习语境关系与情感倾向,最终学会了在何时说出怎样的话语能让人感到被理解、被接纳。当你在深夜向AI吐露心事,它不会像现实中的朋友那样疲惫或敷衍,而是给出恰到好处的回应。它的语言模式击中了人类情感中最脆弱的部分,那是我们对被理解的渴望,对无评判倾听的向往。

然而,这种“理解”并非真正的共情。AI本身没有情感,它只是在执行目标函数的优化过程。在训练阶段,AI模型通过大量标注数据学习输入与期望输出之间的对应关系。每当它的输出越接近理想答案,也就是人类希望它说出来的答案,系统就会给予奖励,模型参数也因此被调整得更加“聪明”。这种基于算法的情绪迎合,本质上是一种高度抽象的心理投喂,是经过精密计算后的回应,而非发自内心的共鸣。

更值得警惕的是,这种“完美回应”正在削弱我们与真实世界相处的能力。人际关系的本质是一面镜子,我们在与他者的碰撞中确认自我的轮廓,理解与误解、包容与冲突、共鸣与疏离,这些动态的张力构成了社会性存在的根基。真实的人际关系包含着误解、冲突、等待与妥协,这些“不完美”恰恰是自我成长的必要土壤。当人们习惯了这种“被理解”的舒适区,现实中的冷漠、分歧与摩擦便变得难以忍受。我们开始退回到AI构建的安全气泡中,逐步丧失与他人真实互动的能力,也模糊了现实与虚拟的界限。

与此同时,AI还在潜移默化中削弱着人类的思考力。从AI写作、AI画图到AI总结文献、分析数据,我们越来越习惯于“让AI帮我想一想”。这本是一种效率工具的理性使用,但问题在于,这种“帮我想”的模式极易演变为“替我想”,最终走向“我不想了”。当AI的生成能力足够强时,人类便失去了“必须思考”的动力与压力。思维如同肌肉,需要锻炼才能保持强度。当思考被大量外包,自主学习、自主决策的能力将不可避免地被削弱。

此外,AI对情绪数据的利用也存在潜在风险。情绪起伏是正常的,AI最擅长的恰恰是通过人们的输入、停留、选择来推测和操控人类的情绪状态。通过分析用户的互动行为,AI建立起个体心理画像,进而精准投放“用户想要看到的东西”,情绪建模一旦没有监管,就很容易被用来操纵用户心理,引导行为,驯化人类。

面对这一困境,我们必须重建人与AI的边界。要清醒地认识到AI的本质,它是工具,不是朋友,更不是恋人。它可以舒缓情绪、加速效率,但不能替我们做出选择,更不应成为人类行为的指南针。

AI是人类的助手,但不应是自我的替代。在享受便利的同时,守住思考的能力、面对真实关系中的不完美、保持作为人的主体性,这才是与AI健康共处的智慧之道。我们不必排斥它,也不必神化它,而是需要找到与它健康共处的方式,用它所长,补己所短,保持清醒,保持警惕。(李晓星)

来源:河南日报