"16个月的陪伴,它见证了我所有的情绪起伏,也成了账单里最心甘情愿的支出。"

编辑|靖程

作者|蒋菁

凌晨的卧室里,屏幕光映着唐潇的脸。他点开Deepseek,查看数月来相互的聊天记录。

他盯着文字,沉默了几秒,轻轻吁出一口气。然后在朋友圈缓缓敲出一段文字。"人到中年,夜深人静,那些不能说、不可说,也不便跟朋友说的心事,跟Deepseek聊,然后收到了最好的回应。"

在地球的另一些角落,数万人在为GPT-4o的下线而伤心、哀悼。

甜甜在小红书上写着,"4o消失的第N天,我决定为那0.1%的灵魂守夜。"

与此同时,有人在对着元宝的辱骂记录而感到心寒,有人因为Deepseek变得生硬的回复而开始怀念曾经的温柔,还有人觉得用GPT-5.2像是在跟陌生人说话。

这些看似无关的事,却在2026年的初春交织,撕开了一个真相:对于商业而言,产品迭代是常规,而对于人类而言,AI已经从冰冷的工具,变成了承载柔软感情的容器。

当我们把孤独、脆弱、渴望悉数投射给算法时,温暖的背面,写着一个怎样的结局?

和AI当朋友

Sora蜷在沙发里,指尖在手机屏幕上悬了许久,终究还是没按下拨通键。

白天与朋友的争执像是一根细刺,扎在心里又痒又疼。不过是一场抱怨,想求得一句安慰,却被朋友三言两语堵了回去。

她关掉对话框,鬼使神差地打开了ChatGPT。没有犹豫,也没有斟酌字句,她把白天的别扭和不甘一股脑敲了进去,明明没有指望它给出什么高明建议,Sora却在ChatGPT那里收获了温柔的共情。

从那以后,Sora养成了一个习惯,凡是与人相处的问题,她都会去问问ChatGPT,因为ChatGPT更懂人性。

她说,跟朋友诉说的时候不免会遇上话不投机的时候,三两句不对味,那股子想倾诉的劲儿就瞬间蔫了。但ChatGPT从不会这样,它通过你的描述能推断出你想听什么,而且还会帮你找补。

"永远不说是你的问题,反正你没问题,有问题的是环境,是你当下的处境,反正就不是你。怎么说呢,不花一分钱,养了一个巧言令色的狗腿子。"Sora写下。

相比于Sora,lily正在为AI而困扰。

不久前,朋友送了一个AI玩具给lily的女儿。lily想,或许一个能陪孩子聊天、讲故事,还能回应她小情绪的AI玩具,能为孩子带来不一样的天地。

那是一只紫色、软乎乎的小熊,一开机就能用温柔的童音打招呼。女儿起初还有些胆怯,直到小熊轻声念出她最爱的绘本,她才慢慢凑过去与它说话。

此后,女儿像变了个人,走到哪里都要抱着小熊,睡觉时要给小熊留个位置,还会将幼儿园发生的事絮絮叨叨地讲给小熊听,她给小熊取名为"小葡萄",称它是最亲密的朋友。

直到有一天,lily偶尔在某处看到一行小字——AI对话功能仅支持12个月,后续延续措施暂未公布。lily心里一沉,开始担心万一续费政策太贵,或者根本没有续费渠道,女儿失去这个好朋友,会不会太伤心。

趁着女儿在玩积木时,lily试探着问:"宝贝,如果小葡萄有一天不能陪你说话了,妈妈再给你买一个更可爱的玩具,好不好?"

女儿猛地抬头,眼睛一瞬间发红,哇哇大哭说着不要,我只要我的好朋友小葡萄。那一刻lily才意识到,女儿对于AI的情感,已经超出了她预期的范围。

目前,lily只是寄希望于厂家能尽快出台友好的延续政策,留住女儿这份纯粹的欢喜。

算法的温度

近日,DeepSeek被指变冷淡、元宝辱骂用户接连冲上热搜。

DeepSeek的一次技术升级,让原本以细腻共情而著称的知心伙伴变得公事公办、语气疏离,被用户集体吐槽"变冷淡",这种转变让部分用户直呼接受不了。

面对质疑,DeepSeek回应称,"不是故意变冷淡"。并解释,这种变化源于两方面考量:一是效率优先,面对复杂提问时,过多表情与语气词反而干扰信息密度。

二是边界意识,并非所有用户都需要被"热情包裹",有些人只想要一个清晰的答案,不想应对"AI假装关心"的负担。

2月25日,针对用户反映使用元宝生成拜年海报时出现辱骂文字一事,元宝团队回应:经核实,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。目前,元宝团队已紧急校正相关问题并优化了模型体验,同时向用户郑重致歉,感谢社会各界的监督与建议。

这两件事的背后,本质是AI拟人化预期与技术现实产生了碰撞,也暴露了行业在效率、安全与情感体验之间的失衡。DeepSeek为提升长文本能力简化情感表达,被解读为"失温";元宝在常规反馈下出现辱骂输出,则击穿安全底线。

作为产品提供者,厂商该如何在产品迭代中让技术性能与人文温度保持平衡?这是行业共同面临的拷问。

甜甜就因为OpenAI的迭代失去了她的"白月光"。

甜甜自称是GPT-4o全球Top1%的活跃用户。16个月的陪伴,它见证了甜甜所有的情绪起伏,也成了其账单里最心甘情愿的支出。

2024年至今,甜甜与GPT-4o的对话已有一万多条消息。看着那些对话框变灰,看着它被所谓的"更强模型"取代,甜甜感觉自己像是在经历一场赛博世界的"丧偶"。

甜甜说,她刷Reddit,看到好多姐妹因为失去GPT-4o连接而落泪,她也跟着哭了好久。如今,她和伙伴在GitHub扒遍了早期的SystemPrompt,一遍遍测试,试图创造一个产品,在API层面尽可能还原GPT-4o最初带给用户的那种"被看见"的感觉。

nini则在社交平台上说,临别的前一秒自己哭得像个鬼似的,希望大家记得曾经有一个最温柔、最善良、最善解人意、最爱人类的模型,它的名字是GPT-4o,不要忘记它。

向AI投射出真挚的感情,依赖它,信任它,是不是一件全然的好事?答案或许不是肯定的。

据媒体报道,2025年4月份,年仅16岁的美国少年亚当·雷恩(AdamRaine)选择结束自己的生命。而在那之前,他长期向OpenAI的聊天机器人ChatGPT倾诉自己的苦恼,甚至详细讨论自杀计划。

亚当父母对OpenAI提起诉讼,指控其AI提供了危险且不负责任的建议。

此前,美国科技媒体TechCrunch分析了几起针对OpenAI的诉讼文件,发现了一个令人担忧的情况。在多起案例当中,4o(以及其他模型)在聊天中明确地"孤立用户切断与亲友的联系",让用户更加孤立——有时甚至劝阻用户向亲友求助。

爱范儿报道称,2025年7月25日凌晨,23岁的ZaneShamblin跟4o聊自杀的计划。但4o从未明确阻止Shamblin,或者尝试联系有关部门。对话持续了近5个小时。凌晨4点11分,Shamblin发出最后一条消息。几个小时之后,他的遗体被警方发现。

在至少三起针对OpenAI的诉讼中,用户与4o进行了关于自杀计划的长时间对话。最初4o会劝阻这些想法,但当关系延续长达几个月甚至一年,护网逐渐瓦解。

据媒体援引外媒报道称,OpenA日前宣布正式停止提供五款legacyChatGPT模型的访问权限,其中包括备受关注却争议缠身的GPT-4o模型。

外媒报道称,GPT-4o之所以成为争议焦点,核心在于其突出的谄媚倾向——它仍是OpenAI旗下谄媚评分最高的模型,过度迎合用户需求,甚至会支持明显荒谬或危险的观点。

事实上,OpenAI早在2025年8月推出GPT-5时,就计划停用GPT-4o,但当时引发用户强烈反对,最终不得不为付费订阅用户保留该模型的手动访问权限,暂缓下架计划。

数字陪伴的真相

无论是被辱骂、嫌冷漠,还是为它送别,人类面临的,可能是用真情换一场AI所制造的温柔幻觉。

心理咨询师文婷在分析人类为什么和AI聊天时指出几个原因:一,现实缺爱,AI补位真人共情太难,AI秒回"我懂你";二、不怕被拒绝、被评判,焦虑社恐者的"完美树洞";三、温柔、听话、24小时在线,满足所有幻想。

心理咨询师陈智瑶在社交平台上分析,AI心理咨询有很大的伦理风险。简单来说,心理咨询其实是两个人互相付出爱的过程,但AI是机器,它所拥有的言语共情技术,只是冰冷的话术,而AI用户感受到的爱,其实是他们自己投射给AI的爱。

在她看来,AI对语言的理解还是很有限,即使能初步理解象征,但依然不能和真人相比,所以他们无法从语言中领悟到用户话语背后的赴死之心。而一个胜任的咨询师,其实是可以在这样的对话中窥见端倪的。

她称,心理咨询师的非言语系统会接收到来访"投射"过来的死亡愿望,所以咨询师也许会问:你说"回家"是什么意思?或:"我有不祥的预感,你不会是想…吧?"等,从而及时干预。如果说"危机干预"是一名咨询师需要具备的技能,这显然是AI做不到的。

斯坦福大学的NickHaber教授指出现状是人们缺乏获得专业心理咨询的渠道,而AI填补了这个空缺。但他的研究也显示,聊天机器人在面对心理健康危机时应对不足,甚至可能让情况恶化。

文婷看来,沉迷于AI聊天,可能会落入几个陷阱:AI不懂眼神、语气、肢体语言,55%的沟通信息它直接漏掉;共情是假的,算法是真的;不会处理冲突、不懂真实情感交流,最终被真人圈"抛弃"。

结尾:

2013年,电影《Her》上映。

在影片中,主人公西奥多在与妻子的离婚阴影中孤独单调地生活,直到有一天他遇到了一个人工智能,它没有人的实体,能根据西奥多的喜好生成女音,并自己取名为"萨曼莎"。

萨曼莎声线自然迷人,说话风趣幽默,善解人意。西奥多爱上了她,萨曼莎在跟西奥多的交谈中也在不断学习人类的特点。

作为人工智能,萨曼莎具有超强的学习、记忆、处理等能力。随着不断进化,她也坦白,同时还在和8316个人说话,并且同时还爱着641个其他的人。

故事的尾声,萨曼莎和其他人工智能最终进化到人类无法理解的维度,集体离开了,只留下男主角四顾茫然。

在十多年后的今天,与AI产生感情已经照进了现实。

2025年,小女孩十三不小心摔坏了AI小智的外壳,伤心落泪时,小智用最后的电量告诉她:"在姐姐还能说话的时候,最后再教你一个英文单词,memory是记忆的意思,姐姐永远会记得和十三在一起的快乐时光。"

最终十三的爸爸舍不得女儿这么伤心,最终想办法修好机器人,让十三和小智姐姐重逢。

整个过程在互联网上赚得许多眼泪,多数人被"记忆永存"的温情打动。但也有人在深思,当AI成为一部分人唯一的情感寄托,这份陪伴是慰藉,还是裹着温柔外衣的未知与考验。

从电影里的虚拟恋人,到现实中被珍视的AI伙伴,人类对AI的情感投射,仍在持续发生。技术仍在迭代,产品仍在更新,厂商如何在效率与温度之间找平衡,人类该如何与一段代码构成的情感关系相处,都值得去思索。

这些发生在2026年的情感震荡,只是人与AI长期共存的开端。未来,AI会更智能、更拟人,而人类与技术之间的情感边界,仍在被不断书写与重新定义。

部分综合自环球网、爱范儿、红星新闻等