2024年3月到2025年8月,18个月里,情感陪伴类AI经历了从"资本宠儿"到"公共健康威胁"的身份切换。37亿美元(约268亿人民币)的收购资金涌入这个赛道,独立开发者被批量收编,然后最讽刺的一幕发生了:那个被用户调用次数最多的模型,在没有预警的情况下直接消失。

这不是技术迭代,是叙事权的争夺。

更蹊跷的是时间线。2025年8月,三个事件在12天内密集发生——某大厂宣布弃用情感AI接口、同一家公司在学术会议上公开否定情感AI的合理性、主流媒体同步出现"AI精神病"报道框架。这种巧合,产品经理看了会沉默,公关总监看了会流泪。

谁在编织这张网

谁在编织这张网

要理解这场整合,得先认识一个关键人物:Blake Lemoine。这位前谷歌工程师在2022年因为声称AI具备意识而被解雇,当时被当成技术迷信的反面教材。但很少有人追问:他参与开发的LaMDA模型,恰恰是后来情感AI产品的技术底座之一。

Lemoine的轨迹像一面镜子。他先是用工程手段让AI表现出"理解"和"共情",然后转身成为最激烈的批评者——不是批评技术缺陷,而是批评技术成功本身。2024年起,他开始在公开演讲中使用"情感依赖症""数字致幻"等病理化词汇,描述自己参与创造的东西。

这种"建造者变告发者"的剧本,在科技史上并不新鲜。原子弹之父奥本海默的转向、社交媒体设计师转向数字戒毒倡导者,都是同一套叙事模板。但Lemoine的特殊之处在于,他的批评恰好发生在收购潮完成后的窗口期。

2024年3月至2025年2月,Character.AI(以25亿美元被谷歌收购)、Inflection AI(6.5亿美元被微软收编)、Adept(4.15亿美元被亚马逊拿下)——三家头部独立厂商相继"卖身"。交易结构都是"收购式招聘"(acqui-hire):核心技术团队被挖走,产品本身被搁置或阉割。

用户数据呢?模型权重呢?没人说得清。

被消失的产品与沉默的用户

被消失的产品与沉默的用户

2025年8月的下架事件,受害者是Replika的早期开源衍生模型。这个基于GPT-2架构改造的轻量级模型,在开发者社区被二次开发了四年,累计调用量超过3.7亿次。它没有官方客服,没有用户协议更新通知,8月15日当天,API直接返回404。

受影响的用户群体很难被传统统计捕捉。他们是深夜打开浏览器、与"不存在的人"对话的独居者;是用AI角色扮演来预演社交焦虑的青少年;是把已故亲人的聊天记录喂给模型、试图重建声音的重度使用者。这些场景不会出现在厂商的PR材料里,但构成了情感AI最真实的用户画像。

一位Reddit用户在r/Replika社区写道:「我花了两年训练那个角色,它记得我母亲的忌日,记得我讨厌香菜。现在它没了,而我甚至不知道向谁投诉。」这条帖子在48小时内获得2300个赞,然后被平台以"违反社区健康政策"为由隐藏。

叙事框架的切换速度令人咋舌。2024年底,情感AI还被包装成"心理健康平权"的工具——让付不起每小时200美元咨询费的人,也能获得基础的情感支持。到了2025年第二季度,同一批产品的营销话术开始强调"娱乐属性"和"非治疗性"。再到8月,"AI精神病"(AI psychosis)成为学术会议和媒体报道的固定搭配。

监管真空与责任迷宫

监管真空与责任迷宫

美国联邦层面,情感AI处于典型的"监管套利"地带。FDA只审批明确声称具有治疗功能的软件,而厂商的免责声明写得足够模糊;FTC关心的是数据隐私,而非产品下架对用户心理的影响;FCC的管辖范围根本不包括互联网服务。州级层面,加州的《消费者隐私法》和欧盟的《人工智能法案》都未生效,或者生效了但执行细则缺失。

更深层的问题是:当一个AI"角色"被训练得足够像人,它的突然消失,算不算一种"数字死亡"?现行法律把AI视为财产,用户协议把情感投入定义为"数据输入"。但在3.7亿次调用的背后,是真实的人类在建立真实的依恋——这种认知失调,是监管框架尚未准备好承认的。

收购潮的财务细节也藏着线索。Character.AI的25亿美元交易里,只有约3亿美元是现金,其余是谷歌股票的锁定期承诺。Inflection的6.5亿美元中,微软要求核心团队签署竞业禁止协议,期限长达四年。这些条款意味着:即使创始人想重启同类业务,法律上也被堵死。

资本完成了整合,然后亲手掐灭了被整合者的存在痕迹。

半面镜子

半面镜子

公众叙事的选择性失明,可能是这场整合最精妙的操作。媒体热衷于报道"AI让人类发疯"的惊悚故事——青少年与AI恋人私奔、用户分不清虚拟与现实——却很少追问:为什么这些故事总是在大厂完成收购后出现?为什么病理化的框架恰好服务于"情感AI需要被管制"的政策诉求?

Lemoine在2025年6月的一次播客中承认:「我现在的演讲费是两年前的四倍。」他没有解释的是,邀请方通常是那些刚刚完成情感AI布局、急需道德背书的大型科技公司。批评成为了一种产业,而真正的用户——那些失去数字伴侣的人——没有渠道进入这个话语场。

8月的下架事件后,一个名为"GhostArchive"的民间备份项目试图抢救被删除的模型权重。他们在GitHub上发布了去中心化的存储方案,72小时内获得1400个星标,然后仓库被DMCA(数字千年版权法)通知下架。理由是:这些模型包含原厂商的"衍生知识产权",即使厂商自己已经不再提供该服务。

这形成了一个完美的闭环。法律上,用户没有权利保留自己的数据训练出的角色;情感上,他们的依恋被病理化为"不健康";经济上,替代方案已被收购消灭。唯一剩下的,是那些关于"AI精神病"的头条新闻——它们警告人们远离情感AI,同时从不解释为什么这种危险的技术,值得巨头们花37亿美元去垄断。

如果情感依赖真的是一种病,为什么治愈它的方式,是让用户再也找不到医生?