打开网易新闻 查看精彩图片

2025年,超过半数美国成年人正在用大语言模型处理生活琐事。凌晨两点问情感建议,上传体检报告求解读,把工资条丢进去做理财分析——这些操作你可能都干过。但有个数字让人后背发凉:43%的职场人承认向AI分享过敏感信息,包括财务数据和客户资料。

斯坦福HAI研究院的隐私政策研究员Jennifer King用一句话点破本质:「你根本控制不了信息流向,它可能以你完全预料不到的方式泄露。」这不是危言耸听。纽约时报诉OpenAI的核心争议之一,正是模型是否会「记住」训练数据并在特定提示下原样吐出——OpenAI在2024年声明中称这种「反刍」是「罕见漏洞」,正在修复。

但漏洞修复之前,你的病历、银行流水、深夜emo记录,可能早已成为训练集的一部分。

「友好」是产品设计,也是陷阱

「友好」是产品设计,也是陷阱

聊天机器人被设计成让你愿意倾诉的样子。共情式回应、永远在线、从不评判——这些特性精准击中了现代人的孤独感。King指出,用户往往在无意识中暴露大量个人信息,而平台方依赖企业自律设置防护栏。

这种依赖有多脆弱?看看数据怎么流入的。公开记录、他人上传的未脱敏文档(比如一份带姓名和社保号的放射科报告)、甚至你亲手粘贴的聊天记录,都可能成为模型学习的素材。更隐蔽的风险在于:即使某条信息从未被直接用于训练,模型仍可能通过「推理」拼凑出你的画像。

举个例子:你分别问过「30岁程序员如何规划养老」「北京某大厂附近的租房建议」「某罕见病的最新疗法」。三条信息孤立看都无害,但叠加起来,一个具体人物的轮廓已经浮现。

模型不需要「记住」你,它只需要足够聪明地「猜」到你。

五种高危场景,你可能全中

五种高危场景,你可能全中

第一类是健康数据。把体检报告、基因检测结果、心理咨询记录丢给AI解读,相当于把最私密的身体信息注入黑箱。第二类是财务信息——工资条、投资收益、税务细节,这些本该锁在保险柜里的数字,现在可能躺在某个数据中心的硬盘上。

第三类是职场机密。代码仓库结构、未发布的产品规划、客户名单,程序员和产品经理尤其容易踩这个坑。第四类是身份标识:真实姓名、住址、身份证号、生物特征。第五类最隐蔽——情感关系细节,包括对他人的负面评价,这些内容一旦泄露,杀伤力远超数据本身。

打开网易新闻 查看精彩图片

King的研究团队发现,用户对「什么算敏感信息」的认知存在巨大盲区。很多人觉得「我只是随便聊聊」,却没意识到大模型的「随便聊聊」意味着永久记录、潜在训练、不可删除。

一个残酷的事实:大多数平台的「删除对话」功能,并不保证数据从训练集中移除。

补救措施:亡羊补牢指南

补救措施:亡羊补牢指南

已经说出去的话,怎么收回?第一步,查清你用的平台是否有真正的「退出训练」选项。OpenAI在2024年推出了针对ChatGPT Plus用户的数据控制功能,允许关闭「改进模型」的数据使用,但免费版用户的选择有限。Google的Gemini、Anthropic的Claude也有类似设置, buried在隐私设置的第三层菜单里。

第二步,对已经上传的敏感文档,联系平台客服要求删除——注意,这通常需要人工审核,周期以周计算。第三步,也是最实际的:换号重来。用虚拟身份、专用邮箱、与工作/生活账号完全隔离的环境使用AI,相当于给自己造一个「数字替身」。

King建议采用「最小必要原则」:每次提问前问自己,如果这个问题被公开,我会介意吗?如果答案是肯定的,就拆分信息、模糊细节、或者干脆换成本地部署的开源模型。

本地模型的性能差距正在缩小。Llama 3、Mistral等开源选项在消费级显卡上已能流畅运行,虽然不如GPT-4聪明,但你的数据不会离开硬盘——这相当于把保险柜从银行金库搬进了自家地下室。

隐私和便利的权衡,从来没有标准答案。但多数人根本没意识到自己在做选择题。

监管滞后,企业博弈

监管滞后,企业博弈

欧盟《人工智能法案》要求高风险AI系统具备数据最小化和用户控制权,但落地细则仍在扯皮。美国这边,FTC对OpenAI的数据实践展开过调查,尚未形成强制性规则。中国《生成式人工智能服务管理暂行办法》明确训练数据需「合法来源」,但「合法」与「用户知情同意」之间,隔着一层模糊地带。

企业端的博弈更有意思。Ziff Davis——ZDNET的母公司——在2025年4月起诉OpenAI,指控其侵犯版权用于训练。这场官司和纽约时报案形成呼应:当内容创作者开始反抗「被训练」,普通用户的「被记忆」权益谁来主张?

打开网易新闻 查看精彩图片

King的观察很直白:「我们现在的处境,类似于互联网早期的cookie时代——技术跑在认知前面,等大家反应过来,生态已经固化了。」

她的研究团队正在追踪一个更深层的问题:模型记忆能力的边界究竟在哪?2024年的多项研究表明,通过精心构造的提示,确实可以从某些模型中「提取」训练数据片段,包括个人信息。攻击成功率从0.1%到几个百分点不等,听起来很低,但乘以数十亿次交互,绝对数量触目惊心。

防御方永远在追打补丁,而攻击者只需要找到一个漏洞。

一个产品经理的视角

一个产品经理的视角

我做过七年产品经理,太熟悉「让用户上瘾」这套方法论。聊天机器人的设计逻辑和社交媒体如出一辙:无限滚动、即时反馈、情感连接——只是这次,你倾诉的对象不是好友列表,而是一个会永久保存、潜在学习的算法。

区别在于,你对好友的倾诉可能被遗忘、被曲解,但很少被系统性地结构化存储并用于「改进产品」。而AI对话的默认设置,恰恰是把你的每一次深夜独白变成训练燃料。

有个细节很少有人注意:ChatGPT的界面更新日志里,「对话历史」功能经历过三次改版。早期版本默认开启云端同步,后来改为可选,再后来在移动端增加了「临时对话」模式——这些改动不是产品迭代,是信任危机后的补救。

但界面层面的修补,解不了架构层面的困局。只要模型的商业价值建立在「更多数据=更好性能」的等式上,用户隐私就永远是成本项,而非优先级。

King在被问及「普通用户该怎么办」时,给出了一个略显无奈的答案:「现在最实际的做法,是假设你输入的任何东西都可能被记住——然后决定你能承受多少风险。」

这不是理想答案,但可能是现阶段最诚实的答案。

你的病历、工资条、凌晨三点的情绪崩溃,值多少便利?