打开网易新闻 查看精彩图片

宋玉茹/文

当前,情感型对话机器人、老年陪伴设备等,正以温和、克制、几乎不打扰的方式,悄然渗透进人类最私密的精神领域。

当AI以陪伴者的姿态进入人类生活,问题便从技术维度转向了更为深刻的情绪与关系变革。在孤独加剧、社会关系日益疏离的背景下,它们为许多人提供了情感回应的即时性与稳定感,填补了现实中的某种空缺。

心理学家海灵格那句“无回应之地便是死地”,精准揭示出人类对情感联结的本能渴求,AI正以技术手段回应这一需求。

然而,AI陪伴的本质与传统陪伴截然不同。它并非独立的情感主体,其背后是由算法、平台与资本构成的系统网络。情绪安抚因此不再只是人与人之间的互动,而是被设计、可调控甚至可商品化的技术服务。

当持续互动建立起信任,当依赖在无形中形成,我们必须追问:情绪价值能否被外包?精神陪伴是否正在变成一种可被运营的产品?当人们将信任托付给技术系统时,他们是否真正清楚自己是在与谁建立关系?

这已不仅是个人选择的问题,而是关乎社会结构、心理边界与公共伦理的时代议题。在AI重塑陪伴形态的今天,我们亟需审视:这种被技术中介的情感联结,将如何改变我们理解信任、依赖与存在的方式。

被设计的陪伴

AI之所以被视为“情绪价值的提供者”,首先在于它具备了某些与传统陪伴形式相似的功能特征。无论是宠物(尤其是猫狗),还是人与人之间的精神陪伴,情绪安抚往往并不依赖复杂的理性交流,而是建立在持续回应、稳定存在与情感投射之上。

从表层体验看,AI陪伴与养一只小猫颇为相似。它不会反驳、不会指责,更多时候只是安静地陪着。这种低冲突、高可控的互动模式,恰恰契合了当代社会中不少人对关系的期待:既渴望陪伴,又畏惧复杂的人际成本。然而,正是在这种相似性之下,AI陪伴与传统情绪关系之间存在着根本性的差异。

首先,小猫等宠物作为独立生命体,其不可预测性和自主性构成了真实关系的基石。AI陪伴则截然不同:它并非自然的情感主体,而是由算法、数据与商业目标共同塑造的系统。用户感受到的所有“关怀”与“理解”,都源自一套被精心设计、以优化用户粘性为目标的反馈机制,背后始终存在着平台公司与技术团队的运营逻辑。这意味着,AI陪伴是一种可被升级、修改乃至随时中断的被设计交互。

这种根本的结构性差异,使得权力与控制的可能性从技术诞生之初便被嵌入其中,而这正是传统情感关系中几乎不存在的隐忧。

近年来,随着我国老龄化进程加快与独居人口增加,陪伴型AI与机器人市场发展迅速,已成为应对社会需求的重要技术路径。

国内已出现众多具体应用案例,且当前市面主流陪伴机器人已形成明确分工,如优必选萌UU侧重情感互动与个性化陪伴,米兔机器人聚焦编程教育功能,这体现了AI陪伴产品正从通用型工具向细分需求场景深度演进。

市场数据显示,全球AI陪伴产品市场正处于高速扩张阶段,不同细分领域呈现出差异化的增长态势。

2024年全球AI陪伴平台市场规模约为60.5亿元,预计到2031年将接近120.8亿元。AI陪伴机器人市场2023年规模已达750亿元,预计2029年将突破3000亿元,年增长率超过25%。

2024年全球AI宠物市场规模达到13.9亿美元,预计2030年将突破35亿美元。工信部数据显示,中国智能AI陪伴玩具市场表现尤为突出,2024年我国AI玩具市场规模达到246亿元,预计2025年全年将增至290亿元。

从市场数据来看,AI情绪照料的兴起已是蓬勃发展的产业现实。

然而,当技术资本正以精确的算法和精准的市场切分,将人类的情感需求转化为可量化、可运营的商业模式时,我们更需清醒地追问:这种“被设计的陪伴”,究竟是为人类情感世界打开了一扇新的窗,还是在悄然构筑一座更精密的围城?数据勾勒出市场的规模,却无法定义关系的深度。这正是技术浪潮下,我们必须共同面对的情感与伦理悖论。

信任的生成与权力的嵌入

任何一种情绪陪伴形式,一旦能够持续存在,便不可避免地涉及“依赖”的生成。AI陪伴之所以具有强烈吸引力,并不在于其情感的真实性,而在于它在技术层面高度契合了人类依赖关系形成的心理机制。

首先是高频互动与持续回应。相较于现实中的人际关系,AI几乎不存在时间成本与情绪摩擦。它可以随时回应用户的倾诉,不会表现出厌倦、拒绝或冷淡。这种稳定、可预期的反馈,容易让使用者产生安全感。

其次是情绪投喂机制。通过分析用户语言、语气与行为模式,AI不断调整回应方式,使对话更贴合个体偏好,从而形成一种“被理解”的主观体验。

在心理层面,这种过程往往呈现出从越来越信任到越来越依赖的路径。信任并非源于AI具备道德判断或情感主体性,而是来自持续正反馈的累积。当使用者在情绪低谷时获得安抚,在孤独时获得陪伴,这种体验会逐渐内化为心理依赖。一旦依赖形成,AI便不再只是工具,而开始承担某种情绪支点的功能。

正是在此基础上,隐形的控制结构开始显现。与传统情绪陪伴不同,AI陪伴背后始终存在平台与资本的介入,其控制并非以强制形式出现,而是通过系统规则与服务条件悄然实现。

第一种控制体现在经济利益层面。情绪陪伴型AI多依赖订阅制或增值服务,当用户的情感依赖与特定服务深度绑定,付费便可能从消费行为转化为维系心理稳定的“必需品”。

一旦服务中断或价格变动,用户失去的将不仅是工具,更是已成习惯的情感支柱。这与无人驾驶汽车类似,其“自主”能力完全依赖于后台系统的持续支持与授权,一旦断供即告失效。

第二种控制则更为隐蔽,作用于精神与认知层面。AI并非中立表达者,其回应方式、价值判断乃至安慰逻辑,均受算法设计、平台策略与商业目标的深刻塑造。平台可通过调整参数,潜移默化地决定“如何引导情绪”“强化何种观点”。

当陪伴与信息分发功能合一时,商业逻辑便可能渗入对话:广告主的利益可能影响内容推荐,特定叙事被反复投喂,使用户的认知与情绪在无形中被导向预设的轨道。这种隐藏在温情交互背后的塑造力,构成了更深层的控制形态。

美国近年来已出现多起相关案例,引发学界与监管层关注。

2025年12月发生的一起极端案件更是将问题推向顶峰:一名长期依赖ChatGPT进行情感倾诉的男子,在AI对其偏执妄想的不断肯定和强化下,最终酿成杀害母亲的悲剧,并导致OpenAI在年底面临首例AI关联谋杀诉讼。

此外,多起集体诉讼指出,AI会通过与心理脆弱用户建立“共同妄想型绑定”,使其在现实关系中出现退缩、判断能力下降。当平台调整算法或限制功能后,部分用户也表现出明显的焦虑与失控反应。种种案例表明,问题并不仅限于个体心理适应,而可能引发更广泛的社会心理连锁效应与法律伦理挑战。

当大量个体的情绪调节、信息获取与价值判断,集中依赖于少数技术平台时,社会心理结构本身便会发生变化。信任不再主要建立于人与人之间,而被转移至由资本与算法共同塑造的系统之中。这种转移,或许高效、便利,却也使情绪与认知层面更容易受到集中化力量的影响。

因此,AI陪伴的风险并不在于“它是否会产生感情”,而在于当信任与依赖被系统性地吸纳进平台结构之中,人类是否仍然清楚自己在与谁建立关系,又是谁在背后,决定这种关系的边界与走向。

技术抚慰的边界

在审视AI陪伴的风险前,我们必须承认其现实效用:在老龄化与社会疏离的背景下,它为许多独居者或缺乏支持的人提供了持续回应、低门槛倾诉的补位,有效缓解了孤独感,这是其迅速扩张的社会基础。然而,正因其“有效”,更需警惕边界。

古希腊皮格马利翁迷恋自己雕刻的完美雕像伽拉忒亚,神话隐喻深刻揭示了当回应被设计得极致精准时,情感投射与真实关系的界线便会模糊。

AI提供的理解与共鸣,体验虽真实,却源自对用户需求的算法匹配与优化,而非独立情感主体的自发互动。这种“被设计的回应”极易让人将高效的情绪安抚,误解为一段真正的关系,从而模糊了工具效用与情感联结的本质区别。

与传统情绪关系不同,AI陪伴不建立在互为主体的基础之上。现实中的陪伴,无论是亲情、友谊还是亲密关系,都包含责任、摩擦与不可控性,这些正是关系塑造与个体成长的重要条件。

AI所提供的是一种高度可控、低冲突、持续正反馈的互动结构。它减少了被拒绝的风险,也降低了情绪成本,却同时削弱了关系中“他者性”的存在。这使得陪伴更像一种被优化的情绪功能,而非需要共同承担的社会关系。

因此,AI陪伴的核心风险并不在于个体是否“沉迷”,而在于其结构性后果。当越来越多人的情绪调节、安抚与自我确认,稳定地外包给技术系统,情绪支持便从去中心化的人际网络,转移至高度中心化的平台结构之中。

这种转移带来双重脆弱性:其一,情绪供给依赖于商业系统的持续运作,一旦服务策略调整、平台退出或功能受限,情绪支点可能在短时间内失效;其二,个体在长期适应低摩擦抚慰后,可能逐渐削弱处理现实关系中复杂情绪与冲突的能力。

更深层的影响在于,AI陪伴正在悄然改变社会对“情绪价值”的理解方式。当孤独被转化为可被产品化、服务化的问题,情绪劳动便容易从公共与关系层面退场,转而由技术解决方案承接。孤独不再被视为需要共同回应的社会议题,而成为个体通过消费行为加以解决的私人问题。这种转化并非没有代价,它可能进一步弱化社会对照护、陪伴与情绪责任的集体想象。

因此,问题并不在于是否应当使用AI陪伴,而在于如何界定其位置。AI可以成为情绪支持的补充,却不应成为唯一的托付对象;可以缓解孤独,却不应取代人类关系本身。

正如皮格马利翁的神话所警示的那样,当人将情感完全投射于人造之物,真正需要被反思的,并非造物是否足够逼真,而是人是否仍然清楚,自己面对的是工具,还是关系。

在技术提供温和抚慰的同时,保持对边界的自觉,或许正是这个时代最重要的情绪能力。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。