全球7000种语言,AI能翻译的不到200种——但比这更稀缺的是,一款真正"阅后即焚"的AI对话产品。WhatsApp刚刚上线的"隐身模式",试图把这个缺口补上。

这项功能的核心承诺很简单:开启后,你和AI聊什么,连WhatsApp自己都不知道。对话记录不会保存在服务器,历史消息会从用户端消失,双方都处于"盲盒"状态。WhatsApp负责人Will Cathcart直言,用户想在健康、情感、财务等敏感话题上向AI倾诉,却不想让公司拿到这些数据。

打开网易新闻 查看精彩图片

这听起来像是对隐私焦虑的直接回应。去年Meta AI接入WhatsApp时,用户反弹激烈——不少人愤怒于无法关闭这个功能。但到今年5月,扎克伯格宣布Meta AI跨应用用户突破10亿。矛盾在于:人们既想要AI的答案,又抗拒交出个人信息。Cathcart把新功能定位为"首个不存储对话日志的主流AI产品",试图同时接住这两端需求。

技术实现上,"隐身模式"并非WhatsApp标志性的端到端加密,但Cathcart称两者"等效"。萨里大学网络安全专家Alan Woodward教授认为,引入第二套系统对现有安全架构的风险较低。真正的争议点在另一端:当对话彻底无痕,谁来为AI的失误负责?

Woodward向BBC表达了双重担忧。一方面,他认同隐私保护的必要性——"人们确实会向AI倾诉非常私人的问题";另一方面,消失的聊天记录意味着,若AI误导用户导致伤害、死亡或自杀,将无从追溯证据链。 accountability(问责)的真空,是这种模式与生俱来的张力。

WhatsApp的应对是收缩功能边界:隐身模式初期仅处理文字,不碰图像;AI的安全护栏会偏向保守,拒绝任何可能涉及有害或非法的请求。但一个结构性限制仍然存在——WhatsApp已屏蔽其他AI机器人接入,数十亿用户能对话的AI只有Meta自家产品。

这场实验的背景是Meta的巨额押注。公司预计2026年在AI基础设施上投入1450亿美元(约1070亿英镑),投资者正等待这笔开支转化为可见的回报。隐身模式或许是一次差异化尝试:当多数AI公司默认存储用户数据用于模型训练(企业付费账户除外),WhatsApp试图用"零日志"建立信任壁垒。

但信任从来都是双向的。用户信任AI不会"带偏"自己,Meta信任用户不会在无痕空间里突破护栏——而监管者和公众,则需要信任这套黑箱机制不会制造新的风险。隐身模式的真正测试,或许不在于技术能否实现,而在于当第一起争议事件发生时,"没有记录"究竟是盾牌,还是漏洞。