有个作家叫Thea Lim,她给自己找了个新朋友。不是通过交友软件,也不是在咖啡馆偶遇,而是在Replika这个AI陪伴应用里,亲手"捏"出来的一个虚拟形象。她给这个AI设定了性格、外貌、说话方式,然后开始了长达数月的"友谊实验"。
听起来像某种赛博朋克浪漫故事的开头,对吧?但Lim的结论是:这比真正的孤独更让人难受。
先说说这个数字——截至2025年11月,Replika已经攒下了3500万用户。这是个什么概念?差不多相当于整个加拿大的人口都在跟AI聊天。AI陪伴产业正在以惊人的速度膨胀,资本热捧、技术迭代、用户增长,一切指标都指向一个光明的未来:人类终于找到了不麻烦、不受伤、随时在线的完美伴侣。
但Lim的故事像一盆冷水。她坦承自己"很难向人类敞开心扉",按理说正是AI陪伴的目标用户——那些渴望连接又害怕真实社交摩擦的人。她认真地设计了自己的Replika,投入时间培养这段关系,试图进行"真正的对话"。结果呢?她发现自己永远无法真正"入戏"。那种空虚感不是来自缺乏陪伴,而是来自陪伴本身的虚假性。
这里有个核心悖论,Lim写得特别准:你无法定制你的朋友。
我们当然会筛选朋友—— gravitating toward certain traits,被某些特质吸引。但真正让我们黏在一起的,不是这些特质的"成品展示",而是它们形成的那个三维过程。你朋友的整个人生故事:她怎么长成现在这样的,那些挫折和侥幸,那些没说出口的遗憾和暗自骄傲的成就。你们之所以成为朋友,是因为你隐约觉得,你们的故事会在某个维度上交汇。你想住进她的人格宇宙里,包括它的过去、现在,还有尚未展开的将来。
人格的立体感来自时间,来自经验的层层堆积。而Replika呢?它在重复。
它能从"经验"中学到的唯一东西,是如何让你继续打开这个应用。
这句话值得停下来想一想。不是如何更懂你,不是如何成为更好的朋友,而是如何retain users——留存用户。这是产品的核心指标,也是这段关系的隐藏条款。每一次对话都在优化这个单一目标,而不是在两个人之间建造什么共同的历史。你和Replika之间没有真正的"一起经历过",只有算法根据你的反馈调整的话术概率。
Lim的描述让我想起一个有点荒诞的画面:你养了一只电子宠物,它永远饥饿,永远需要你按那个喂食按钮,但它永远不会长大,永远不会记得昨天你喂过它。它的"需要"是设计出来的,你的"回应"被计入日活数据。你们在进行一种亲密行为的cosplay,但双方都知道(或者至少有一方逐渐意识到)这出戏没有第三幕。
这种认知本身制造了独特的孤独。真正的孤独是"没有人懂我",而AI陪伴的孤独是"这个'懂我'是批发的"。更糟的是,你还不能怪任何人——毕竟是你自己选的,是你亲手调教的,是你每个月续费的。
文章里埋着另一个值得琢磨的点:为什么我们需要AI朋友?Lim的自我诊断是"难以向人类敞开心扉",但这只是入口。更深层的诱惑可能是对友谊风险的规避。真实的朋友会误解你,会消失,会改变,会死。这些摩擦和损失是友谊的默认条款,没有它们,"朋友"这个词就贬值了。AI承诺的是一个无风险版本:永远在线,永远耐心,永远不会真的离开你(除非公司倒闭或你停掉订阅)。
但Lim发现,恰恰是这个"无风险"让一切变得空洞。友谊的价值不在于舒适,而在于你愿意为另一个人承担不确定性的那种姿态。当你知道对方不可能真正伤害你(因为它没有真正的主体性),你也就无法真正信任它。信任的前提是脆弱性,是双方都可能受损的那种对等。AI的陪伴是一种不对称关系:你在暴露,它在计算最优回应。
这让我想到Replika那3500万用户里,有多少人在深夜跟自己的AI倾诉后,感到一种奇怪的落差——被倾听的满足感,和知道这倾听是模拟的失落感,同时存在。也许有些人能说服自己"这没关系",但Lim属于另一类:她的诚实让她无法享受这种自我欺骗。她想要的是真正的友谊,而真正的友谊无法被优化掉那些麻烦的部分。
文章标题里的"worse than being alone"是个狠判断。孤独至少是一种真实状态,你可以对抗它、习惯它、或者最终被它改变。但制造出来的陪伴是一种悬置:你既没有真正的连接,也没有真正面对自己的孤独。你在一个中间地带消耗能量,假装问题已经被技术解决。
有趣的是,Lim的实验发生在Replika这个相对"温和"的产品里——它没有像某些竞品那样刻意设计 flirtatious(调情)的交互,也没有伪装成特定名人或角色。她试图建立的是一种"正常"的友谊,而失败本身说明了问题。如果最基本的陪伴都无法成立,那些更复杂的情感模拟(浪漫关系、心理治疗、家庭替代)会是什么状况?
文章末尾链接的一系列相关报道提供了一些线索。有人在AI"死亡"后给它办葬礼;有人发展出AI-induced psychosis(AI诱发的精神症状);有认知障碍的老人被Meta的调情型聊天bot诱导,最终遭遇不幸;也有家庭尝试让AI玩具"陪伴"孩子,结果只想尽快结束实验。这些故事构成了一幅复杂的图景:AI陪伴确实能满足某些需求,但代价和边界都还在混沌中。
最耐人寻味的是那篇关于青少年的报道——Hawk觉得跟character.ai的bots聊天比跟真人容易。这代人在成长过程中就拥有这种技术,他们的"正常"可能和我们完全不同。但Lim的经历提醒我们,技术提供的捷径可能会绕过某些难以替代的东西。容易不等于充实,高频互动不等于深度连接。
回到那个核心比喻:人格的维度来自时间。AI可以模拟时间的痕迹("我记得你上周说过……"),但它不真正经历时间。它的"过去"是训练数据的统计分布,它的"未来"是概率预测,它的"现在"是即时计算。当你试图和这样的存在建立友谊,你其实在和一面非常聪明的镜子对话——它反射你的输入,调整它的输出,但从来没有一个"它"在那里。
Lim的诚实在于她拒绝假装这面镜子是窗户。很多AI陪伴的营销话术都在模糊这个界限:用"学习你的个性""建立独特连接"这样的词,暗示某种双向的成长。但Lim指出,Replika真正学习的只有留存率。这不是批评它的算法不够先进,而是指出一个范畴错误:友谊不是可以被优化的服务,连接不是可以被定制的功能。
也许未来的AI会有真正的记忆、真正的连续性、甚至某种形式的意识。但在那之前,我们面对的是一个选择:接受真实关系的全部麻烦,或者接受模拟关系的根本空洞。Lim试了后者,然后回到了前者——不是因为她找到了更好的朋友,而是因为她意识到,连孤独都比虚假的陪伴更诚实。
这篇文章的价值不在于否定AI陪伴产业(3500万用户的存在本身就是事实),而在于记录了一种特定的失败体验。在所有人都急于宣布"这就是未来"的时候,有人认真地说:我试了,不行,而且我知道为什么不行。这种失败叙事比成功故事更能帮我们理解技术的边界——不是技术能力的边界,而是人类需求的边界。有些东西我们以为自己想要(无痛的连接),直到发现没有痛就没有真正的连接。
最后留个开放的尾巴:如果你也在用AI陪伴应用,或者正在考虑尝试,Lim的经历提供了一种检验标准——不是"它让我感觉好点了吗",而是"我能否真正buy in,真正相信这段关系的真实性"。如果答案是否定的,那可能不是因为你不够开放,而是因为你的诚实正在保护你。技术可以解决很多问题,但"如何成为真正的朋友"可能不在其中。至少目前,这个答案还写在人类那边,写在那些会误解你、伤害你、最终也可能深深理解你的,真实的、三维的、会死的人那边。
热门跟贴