最近一则新闻让不少人五味杂陈:一位老人花费3000元,用AI复原了已故儿子的声音与形象,每天都要和虚拟儿子对话半小时。视频里,AI会叮嘱“妈,天冷多穿点”,会关心“今天吃饭了吗”,连语气停顿都惟妙惟肖。老人泪流不止,只觉得“孩子好像真的回来了”。
这早已不是科幻桥段,而是一条正在野蛮生长的灰色产业链。从短视频平台批量产出的AI合成短剧,到电商平台99元定制的“逝者数字人”,再到各类APP主打的AI恋人、AI父母,AI正披着“治愈孤独”的外衣,悄悄侵入人类最私密、最脆弱的情感地带。
可在温情叙事的包装下,藏着一套冰冷的商业逻辑,以及一连串正在失控的现实风险。
AI复刻亲人,本质上是一场精准的数据榨取。
想要做出一个“足够像”的数字人,离不开海量个人素材:照片、视频、语音、聊天记录,甚至社交动态与生活轨迹。这些高度敏感的隐私一旦上传,便很难真正属于用户。不少用户发现,平台服务协议中暗藏条款,默认授予平台永久、免费、可转授的数据使用权。
这意味着,你为思念上传的亲人影像,可能被用于模型训练、商业推广,甚至流入黑灰产。而大多数人,根本没有耐心和能力读懂冗长的协议条款。
更值得警惕的是,人的情感依赖,正在被资本设计成付费陷阱。
这类产品几乎都采用“免费试用+阶梯付费”模式。先用一句暖心问候击穿心理防线,等用户陷入情感依赖,再按对话时长、功能模块收费。想要AI记住更多家庭往事?加钱。想要节日自动送上问候?加钱。平台精准拿捏丧亲之痛与老年孤独,把哀伤、思念、遗憾统统量化为收费项目。
心理学家早已指出,长期沉溺于AI虚拟陪伴,会阻碍正常的哀悼过程,让人逃避现实、困在虚假慰藉里,反而难以真正走出创伤。技术没有治愈孤独,只是用幻觉暂时掩盖了孤独。
与此同时,伦理与法律的边界,正在被快速模糊。
当AI可以高度复刻一个逝去的人,谁有资格决定“复活”他?子女未经父母同意复刻祖辈,是否构成对逝者人格权的侵犯?更极端的场景下,有人可能利用AI伪造亲人临终遗言争夺财产,或用虚拟伴侣替代真实婚姻关系,引发一系列社会纠纷。
我国《民法典》明确保护肖像权、声音权,但针对“死后数字人格”的界定与使用,仍缺乏细致规则。技术一路狂奔,法律与伦理的约束,显然还没跟上脚步。
推动这一切快速扩张的,是资本对“情绪经济”的狂热追逐。
数据显示,国内AI情感陪伴市场规模持续高速增长,大批创业公司以“解决老龄化孤独”为卖点融资扩张。他们并不在意技术是否真正抚慰人心,更擅长制造“泪点营销”:拍摄老人与AI孙辈互动的短视频,用煽情内容换取流量,再顺势引导付费。悲伤成了流量密码,思念变成了变现生意。
AI情感陪伴并非洪水猛兽,但必须划出清晰、不可逾越的红线。
首先,知情同意必须绝对前置。复刻逝者需征得全体近亲属书面同意,使用生者数据必须明确告知用途,杜绝默认授权与隐性条款。
其次,严禁商业化滥用。数字人不能用于广告代言、金融诱导等商业行为,更不能成为收割老年人的工具。
最后,保障完整的数据退出权。用户应有权永久删除个人数据,平台不得私自留存或继续用于训练。
AI可以模仿语气,却给不了真实拥抱;可以复述往事,却无法替代共同经历的岁月。技术如果真的想温暖人心,就不该趁人之危、利用脆弱牟利。
不消费悲伤,不收割情感,守住对生命与人性的基本尊重,才是技术向善最朴素的底线。
热门跟贴