(图源:让子弹飞)文:李浩编辑:经纬俗话说人无远虑,必有近忧。
如果担心未来哪些岗位会被 AI 取代,有多少打工人会被 AI 干掉是“远虑”的话,最近的 Kimi 泄露用户简历的事件则是真真切切的“近忧”。
近日有网友在社交媒体上发帖称,自己在使用 Kimi 时,向系统提问后,系统直接给出了一份完整的陌生人简历。
(图源:网络)
根据网络图片显示,该简历信息非常详细,包括了姓名、电话号码、邮箱、工作经历、教育背景、核心业绩等真实敏感内容。
(图源:小红书)
据发帖人称,简历上的个人信息完全没有进行脱敏处理。随后,发帖人通过简历上的手机号,竟成功联系到了当事人。当事人表示,他近期在找工作,的确使用过 Kimi 对简历进行润色。
消息一出,Kimi 被推上了风口浪尖。在没有获得授权的情况下,向不相关第三方发送敏感隐私信息,无论在哪都是对隐私权的侵犯。
然而 Kimi 官方回应称,此事件是“AI 幻觉”导致的。
那么这个事件中,Kimi 有没有出现 AI 幻觉?其实是有的。
根据网传截图显示,发帖人最初的提问是一个包含三行英文的图片。图片中的三句英语分别是“Y25 618: Market & Platfotm Trend”、“Key Players: Results & Learning”,和“Next Step: Initiates & Prep for D11”。从内容上看,这三句分别对应着 2025 年 618 电商平台风向、市场关键玩家的成绩和反思,以及为双十一做的下一步规划。
(图源:网络)
Kimi 收到的是电商相关的内容,但返回给发帖人的是物理或工程技术上的答案,Kimi 认为发帖人的提问是“振动控制/减震技术的频响特征图”。在发帖人表示不满后,Kimi 再次错误识别,不仅将这三句洋文当成中文,还认为如此规整的格式必然是一份简历。
所以,Kimi 确实是因为 AI 幻觉才会给出简历。
但这样的回应也体现了 Kimi 的公关小巧思:突出了两个问题中较轻的那个,即 AI 幻觉;反而隐藏了合规、技术上缺乏手段、漠视用户隐私的事实。
用 Kimi 官方的逻辑,某人如果直接搜索,用非常方便 AI 理解的方式要求 Kimi 给提供第三方敏感信息,那么 Kimi 就必须助纣为虐?
(Kimi 隐私协议,图源:Kimi 官网)
根据最新版的隐私协议,Kimi 明确表示用户要“谨慎上传您的个人信息,尤其是敏感个人信息”。但“谨慎上传”绝不是免死金牌,平台有义务保障数据隔离与安全,无论技术是否成熟。
而这次简历泄露事件或许暗示着一个更大的问题。
(Kimi 开放平台服务协议,图源:Kimi 官网)
如果 Kimi 后台没有能力对客户数据进行脱敏处理,这次可能泄露的只是简历,但对于企业用户来说,一旦泄密将带来难以想象的后果。企业级开发者在接入大模型处理业务数据时,带有商业机密性质的信息,如客户名单、交易数据等,随时可能在其他用户的对话框中被意外弹出。
对此,Kimi 在服务协议中却轻飘飘的表示“应由您承担全部责任”。
有意思的是,在用户隐私上,Kimi 其实是有前科的。
(图源:公安部网安局官方微信公众号)
2025 年 5 月,公安部网安局在官方微信公众号中,通报了 35 款移动应用存在违法违规收集使用个人信息情况。其中,Kimi 因“实际收集的个人信息与业务功能没有直接关联”被官方点名。
海因里希安全法则指出,在一次重大的事故的背后,往往有 29 起轻度的事故和 300 起潜在隐患。不幸的是,简历事件或许是 Kimi 在用户隐私方面长期存在隐患的必然结果。
但这对月之暗面即将的 IPO 来说,可能不是个好消息。
随着智谱、MinMax 相继上市且股价爆火,月之暗面上市消息也开始传出。虽然创始人杨植麟曾在 2025 年底内部信中表示“短期不着急上市”,并称融资金额已超过多数 IPO 募资规模且现金储备充足,但是在今年 3 月 26 日,彭博社报道称月之暗面正处于考虑在香港进行 IPO 的早期阶段,公司已与中金公司和高盛展开初步磋商,探讨潜在上市事宜。
并且融资段月之暗面也在“两条腿走路”。在 3 月 16 日,月之暗面被曝出拟进行新一轮融资,募资或达 10 亿美元。公司估值约为 180 亿美元,较 2025 年底的 43 亿美元估值高出 3 倍有余。
月之暗面能成为资本的宠儿,团队的技术水平功不可没。平心而论,Kimi 性能的确很强。根据大模型测评网站 LLM Arena 数据显示,Kimi 2.6 版在文字处理能力上排名全球 26 位,在编程性能上排进前六,在 1-4 名全被 Claude 包揽的情况下与智谱的 GLM 5.1 打败众多国外对手杀进前六。
长期来看,Kimi 在众多国产大模型中输入铁打的第一梯队,基本上属于更新一个版本就能拿下国产第一的状态。
(图源:LLM Arena)
有这样放眼全世界都能排得上名次的技术,Kimi 还发生了隐私泄露事件。这不仅考验着平台的用户信任,更直接指向月之暗面冲击港股 IPO 时必须面对的合规风险。对于越发重视 ESG 的港交所来说,在 AI 时代重点关注的问题包括数据隐私、个人信息保护、算法公平性以及 AI 伦理等方面。月之暗面自然不想因这类事件引发港交所的注意。
但讽刺的是,在这个时间点泄露简历或许不是一个“天大的篓子”。
原因也很简单,同行衬托。
3月31日,是 Anthropic 公司旗下 AI 编程工具 Claude Code 在发布 claude-code v2.1.88 时,因构建配置失误,意外将一个约 60MB 的 Source Map 文件一同打包进了生产版本。
Source Map 本是调试用的文件,用于将压缩混淆后的 JS 代码映射回原始 TypeScript 源码。但这次它不仅被包含,还明确指向了 Anthropic 的 Cloudflare R2 存储桶,里面存放着完整未经混淆的源代码。
自家“密码本”被“打包赠送”,导致 Claude 源代码发生泄露。随后代码迅速被下载、归档到 GitHub 等平台,数小时内相关仓库被 Fork 数万次。
需要注意的是这已经是 Anthropic 在近一年内第二次犯类似 Source Map 错误。
在国内,4 月 23 日晚,有网友在小红书发帖称,使用豆包查询或输入相关提示后,成功查到 2026 山东事业编成绩,并附上成绩单截图。
(图源:小红书)
据爆料,仅济南槐荫区的部分岗位成绩能被查询到,其他区域暂未涉及。原帖随后被删除,但截图和讨论迅速传播。随后,相关部门工作人员解释称,原定 4 月 24 日正式公布笔试成绩,但前一晚工作人员提前调试、测试成绩查询端口。
但测试期间发现,有网民无意中点进了这个尚未正式开放的测试页面,导致信息短暂暴露。在发现异常后已及时关闭端口,并按原计划正常公布成绩。官方强调没有造成不良影响。
据推测,豆包可能采集了往年成绩查询链接的规律,通过联想、模式推断和网页抓取能力,自动尝试构造并访问今年的潜在链接,从而进入了测试页面。
李彦宏在 2018 年中国发展高层论坛上曾说过:“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率,在很多情况下,他们就愿意这么做。”
但十年快过去了,国内用户发现了这样一个恐怖的事实——让渡隐私之后,即没有隐私,也没得到便利。
AI 叛乱能成为众多科幻小说中的“灭世级”灾难,除了机器本身的冷酷、毫无怜悯外,极其恐怖的效率也或许是原因之一。
在移动互联网时代隐私泄露就已经是严重的问题。在进入 AI 时代后,伴随着更多主动让渡个人敏感信息的新用户习惯,以及 AI 带来的前所未有的高效率,以前就未能解决的隐私问题,在新的时代将带来更严重的后果。
“大裸奔时代”,已经到来。
热门跟贴