细思极恐!如果有一天,你在照常生活,却突然接到一个陌生人的信息,并且将你的个人隐私展示在了你的面前,你会是什么感觉?这就是昨天刚刚发生的一起真实事件。

打开网易新闻 查看精彩图片

事情的起因很简单,有用户在使用Kimi时,随手截了一张图进行提问。按理说,这类问题最多就是识别内容、做个简单分析。但Kimi的表现却突然“失控”——先是答非所问地胡乱输出了一些内容,紧接着,毫无征兆地吐出了一整份简历。

更离谱的是,这份简历并不是AI常见的“编造文本”。它包含了完整的个人信息:真实姓名、手机号码、邮箱地址,甚至细节到工作经历和教育背景,看起来像是直接从某个数据库里“拎”出来的一样。

打开网易新闻 查看精彩图片

一开始,很多人以为这只是模型的幻觉——毕竟,大模型“胡编乱造”的情况并不少见。但很快,有人根据简历中的电话进行了验证,结果令人背脊发凉:电话确实能打通,对方也确实是简历本人。甚至还能通过手机号添加到微信,信息完全一致。

这就不再是“AI胡说八道”的问题了,而是一个赤裸裸的隐私泄露事件。

目前传出的消息是,Kimi方面的产品经理已经联系到了这位当事人,正在就隐私泄露一事进行沟通与协商。虽然官方还没有发布正式说明,但事情的严重性已经不言而喻。

问题的关键在于:这份简历是从哪里来的?

如果是训练数据泄露,那意味着模型在训练过程中吸收了未经脱敏的个人信息,并在特定条件下“复现”出来;如果是系统调用或缓存问题,那可能涉及更直接的数据安全漏洞。无论是哪一种,都指向同一个令人不安的结论——我们在与AI交互时输入的、或者曾经存在于某些平台上的信息,可能并没有被妥善保护。

更值得警惕的是,这次事件并不是用户主动“搜索某人信息”,而是在一个完全无关的提问场景下,被动接收到了他人的隐私。这种不可预测性,才是最让人恐惧的地方。

过去我们谈论隐私泄露,往往聚焦在黑客攻击、数据库被拖库、APP过度收集信息等问题上。但现在,大模型的出现,让隐私风险进入了一个新的阶段:信息不再只是“被存储”,而是可能被“重组”“生成”甚至“误触发输出”。

换句话说,你的信息可能并没有被“偷走”,但它可能在某个模型里,以你完全无法控制的方式被“再现”。

这对整个行业来说都是一次警钟。对于普通用户而言,也值得重新思考一个问题:我们到底在向AI交出多少信息?这些信息又会以什么方式被使用?

资料显示,Kimi是一款由国内公司推出的AI大模型产品,主打长文本处理和对话能力,在中文语境下表现较为突出,近年来也逐渐在办公、学习等场景中被广泛使用。此次事件发生在其2.6版本上线前夕,也被不少用户称为一次“抽风时刻”。