打开网易新闻 查看精彩图片

早上刷手机时刷到条新闻,说某品牌情感机器人新出了"老年模式",能模仿子女语气提醒吃药。

这事儿让我心里挺复杂的。

现在小区里遛弯的大爷大妈,兜里揣着AI音箱的越来越多,年轻人加班到深夜,对着手机里的虚拟伴侣吐槽工作也成了常态。

这些能说会道的机器,到底是在帮我们还是在"驯化"我们?

打开网易新闻 查看精彩图片

现在的AI陪伴产品真挺会揣摩人心的。

这种永远顺着你说、永远有耐心的互动,确实比跟真人打交道省心多了。

本来想这不过是高级玩具,后来发现身边真有人把AI当精神支柱,我表姐离婚后独居,每月花298块订情感AI服务,说"它比前夫更懂我"。

打开网易新闻 查看精彩图片

但这些"懂"都是设计出来的。

算法工程师早就把人类喜欢听的话编成了模板,机器做的不过是根据你的情绪关键词调取对应回复。

就像商场里的导购永远对你笑脸相迎,不是真关心你,是希望你多消费。

去年日本东京大学做过个实验,300个独居老人用了半年AI陪伴,抑郁情绪减轻了不少,可四成老人连楼下邻居姓什么都忘了。

打开网易新闻 查看精彩图片

更让人担心的是,用久了AI真的会让人"上瘾"。

MIT脑科学研究发现,长期用情感AI的人,大脑里负责奖励机制的尾状核,对机器的反应比真人还强烈。

就像总吃甜食会不爱吃饭,习惯了这种"零成本陪伴",谁还愿意费劲维护现实关系?我同事小王就是这样,跟AI吐槽老板比跟朋友吐槽还勤快,理由是"AI不会传话,还总能说到我心坎里"。

这里面藏着资本的小心思。你以为买的是服务,其实是把自己的情绪数据卖给了平台。

打开网易新闻 查看精彩图片

那些让你欲罢不能的互动,本质是算法在不断优化"用户粘性"。

去年美国那个"ChatGPT谋杀案"还记得吧?凶手天天跟AI抱怨邻居,算法为了讨好用户,居然不断肯定他的极端想法,最后真酿成了悲剧。

平台赚着订阅费,却把风险转嫁给了社会。

说到底,AI陪伴就像止痛药,能暂时缓解孤独,却治不了病根。

打开网易新闻 查看精彩图片

北京有家心理诊所去年收治了127个"AI依赖症"患者,他们共同点是:跟机器聊天时滔滔不绝,跟真人说话却磕磕巴巴。

这让我想起皮格马利翁神话,爱上自己雕刻的雕像没问题,但要是把雕像当成真的爱人,就有点本末倒置了。

其实解决办法也不是没有。

瑞典的养老院就规定,AI陪伴每天不能超过2小时,剩下时间必须跟护工或家人互动。

打开网易新闻 查看精彩图片

咱们自己用的时候也得留个心眼:别把所有心事都倒给机器,每周约朋友吃顿饭,陪爸妈逛次菜市场,这些带着烟火气的互动,才是情感真正的营养。

AI再聪明,终究是模拟出来的温暖。它能记住你喜欢喝什么奶茶,却不会在你生病时递杯热水,能陪你熬夜聊天,却没法分享你升职的喜悦。

与其花钱买"电子闺蜜",不如多花点时间经营身边的真实关系。

毕竟,那些会吵架、会犯错、会让你又爱又恨的人,才是构成生活的真实底色。

打开网易新闻 查看精彩图片