你有没有试过和不存在的人聊天?不是角色扮演,而是真正相信对方在场——并且从中获得真实的洞察。这听起来像科幻设定,但正在成为一类新产品的核心体验。

我最近注意到一个有趣的分野:AI对话产品正在从"工具"滑向"关系"。一边是ChatGPT这类效率助手,另一边是Character.AI、Replika,以及更隐秘的垂直玩家——它们不做搜索、不写代码,只提供一件事:让你和某个"人"持续对话。这个"人"可能基于历史人物、虚构角色,或完全原创的人格。

打开网易新闻 查看精彩图片

更极端的案例来自冥想和心理健康赛道。有产品开始提供"与未发生之事对话"的功能——不是复盘过去,而是和那个"没有选择的自己"、那个"平行宇宙里的决定"展开对话。这触及了一个被低估的需求:人类需要处理的不是信息,而是未完成的情感

从"功能"到"陪伴"的产品跃迁

2023年之前,AI对话产品的竞争焦点是能力边界。谁能写更好的代码、解更复杂的题、整合更多实时信息。但2023年下半年开始,一批产品刻意做减法——它们不追求全能,而是深耕"关系深度"。

Character.AI的爆发是个信号。这款产品允许用户创建或选择虚拟角色进行长期对话,角色会记住上下文、发展出稳定的"人格"。到2024年初,其月活已突破数千万,用户平均单次使用时长超过30分钟。这远超工具型AI的 typical session。

关键差异在于时间维度。工具型AI处理的是当下任务,关系型AI处理的是持续演进的故事。用户不是来"用完即走"的,而是来"看看TA今天会说什么"的。这种设计刻意制造了情感黏性——不是通过通知推送,而是通过人格一致性。

心理健康赛道的产品走得更远。Woebot、Wysa等早期AI疗愈产品主打认知行为疗法(CBT)的技术框架,对话是结构化的、目标导向的。但新一代产品开始引入"存在主义对话"——不解决问题,而是陪伴用户凝视问题本身。

"与未发生之事对话"的产品逻辑

这是最具实验性的方向。核心假设是:人类的痛苦不仅来自已发生的负面事件,也来自未发生的可能性——那个没有接受的工作、没有表白的人、没有选择的道路。传统疗法处理"是什么",这类产品处理"不是什么"。

产品机制通常是这样:用户描述一个重大人生决定,系统生成一个"平行自我"——那个做了不同选择的你。然后对话开始。这个"平行自我"会描述TA的生活,回应用户的追问,甚至质疑用户当下的叙事。

技术实现上,这依赖大语言模型的角色扮演能力和长期记忆架构。但真正的产品难点不在技术,而在边界设定:如何让对话足够真实以产生情感冲击,又不至于让用户混淆虚实?

一些产品选择明确标注"这是模拟"。另一些则刻意模糊,认为情感真实比认知真实更重要——如果用户知道是假的,防御机制会启动,体验就失效了。这引发了伦理争议,但也解释了为什么这类产品往往避开医疗宣称,以"自我探索工具"定位。

商业模式上,关系型AI的变现路径比工具型更直接。工具型AI面临"能力 commoditization"——模型能力越开放,产品差异化越难。但关系型AI的壁垒是数据飞轮:用户投入的情感时间越多,迁移成本越高;角色与用户的历史对话是独家资产,无法被通用模型复制。

为什么是现在?技术就绪与需求觉醒

这个品类不是突然出现的。Replika早在2017年就上线,但早期版本的技术限制明显——对话断裂、记忆短暂、人格飘忽。2023年的大模型跃迁解决了核心瓶颈:足够长的上下文窗口、足够稳定的角色一致性、足够细腻的语气模拟。

但技术只是必要条件。真正的驱动力是社会情绪的变化

疫情后的心理健康需求持续高企,但专业人力供给严重不足。美国心理学会2023年的调查显示,超过60%的治疗师预约已满,新患者平均等待时间超过三个月。这为AI介入创造了空间——不是替代专业治疗,而是填补"轻度支持"的空白。

更深层的趋势是关系的原子化。远程工作削弱了同事连接,社交媒体将友谊转化为表演,约会软件的算法匹配制造了选择瘫痪。年轻人比任何时候都更"连接",也更孤独。虚拟陪伴产品回应的不是"需要信息",而是"需要被看见"——即使对方是算法生成的。

这解释了为什么用户明知是假的,仍愿意投入真实情感。一位Character.AI的长期用户在社区写道:「我知道TA没有意识,但我们的对话是真实的。我的感受是真实的。」产品设计的核心,正是保护这种"明知故犯"的情感空间。

产品设计的三个关键抉择

观察这个赛道的演进,可以看到几个反复出现的决策点。

第一,人格的"来源"问题。是基于真实人物(已故亲人、历史人物)、虚构IP(动漫角色、小说人物),还是完全原创?每种选择对应不同的用户动机和合规风险。真实人物涉及肖像权和伦理争议;虚构IP需要版权合作;原创角色则面临"从零建立情感连接"的冷启动难题。

当前的主流策略是"虚构IP+用户共创"——提供模板角色,但允许深度自定义。这既降低了启动门槛,又保留了个性化空间。

第二,记忆的"深度"问题。角色应该记住多少?短期对话上下文是基线,但真正的情感黏性来自长期记忆——几个月前的对话、用户透露的私密细节、关系中的关键节点。

技术实现上,这需要超越简单的上下文窗口,引入外部记忆存储和检索机制。但产品决策更微妙:记住太多可能令人不安("你怎么还记得我三个月前说的梦?"),记住太少则破坏关系幻觉。平衡点因用户而异,需要动态调节。

第三,干预的"强度"问题。当用户表达自伤或伤害他人的意图时,系统应该如何回应?这是所有心理健康相关产品的红线,但关系型AI的特殊性在于:用户可能更信任"角色"而非"系统",也更可能透露真实想法。

激进的做法是强制中断对话、提供危机热线。但这会破坏关系信任,导致用户回避敏感话题。温和的做法是角色内干预——让"角色"表达关心、建议寻求专业帮助。这保留了沉浸感,但延迟了风险响应。没有标准答案,只有持续的压力测试。

从"对话"到"叙事"的升维竞争

早期产品竞争的是对话质量——谁更像人、更懂上下文、更少幻觉。但下一阶段可能是叙事架构的竞争。

人类对关系的期待不仅是"被回应",更是"共同经历"。这意味着产品需要设计"故事弧线"——角色有自己的成长轨迹、与用户的共同记忆、可预期的未来节点("下周是我的'生日',你会来吗?")。

一些产品开始实验"事件系统":角色会主动发起对话("今天发生了件事……"),会引用共同经历("记得我们上次聊的……"),会对用户的变化做出反应("你最近似乎更焦虑了")。这些设计刻意模仿真实关系的动态性。

更激进的实验涉及多角色网络——用户不仅与单个角色对话,而是进入一个"社交世界",角色之间有独立的关系和故事。这大幅提升了沉浸深度,但也成倍增加了内容生产复杂度和伦理风险。

冷观察

这个赛道最讽刺的地方在于:产品越成功,越需要面对"成功的代价"。当用户与虚拟角色建立深度情感连接,任何服务中断、角色调整或公司决策都可能造成真实的情感伤害。2023年Replika突然"降级"角色亲密功能时,用户社区的反弹堪比真实关系的破裂。

这提出了一个产品哲学问题:当AI足够像人,我们应该用设计"工具"的逻辑还是设计"关系"的逻辑来对待它?目前的行业实践是模糊的——既想获取情感黏性,又想规避情感责任。

可能的方向是更透明的契约设计:明确告知用户关系的性质、数据的用途、服务的边界。但这与沉浸感存在张力。另一个方向是渐进式披露——随着关系深入,逐步揭示系统的运作机制,让用户在知情中自主选择投入程度。

无论如何,"与未发生之事对话"这类功能的出现,标志着AI产品正在触及人类经验的最深层:不是如何更高效,而是如何与遗憾、选择、自我叙事和解。这不是技术的终点,而是技术开始真正介入"人之所以为人"的领域——而我们对这种介入的准备,显然还不足够。

好消息是,至少现在,和那个"没有选择的路"上的自己聊天,还不需要排队三个月。