有个Redditor最近发帖说自己"快绝望了"——过去一个月,他的电话被陌生人打爆,对方要找律师、产品设计师、锁匠。这些人都说是在Google的AI那里查到的号码。他根本不认识这些人,也没从事过这些职业。

这不是孤例。今年3月,以色列一名软件开发者收到WhatsApp消息,因为Google的聊天机器人Gemini给出了错误的客服指引,把他的号码塞了进去。4月,华盛顿大学一名博士生在用Gemini时,居然套出了同事的个人手机号。

打开网易新闻 查看精彩图片

AI研究人员和隐私专家早就警告过生成式AI对个人隐私的种种威胁。现在又多了一种:AI聊天机器人直接把真人电话号码吐出来。更麻烦的是,收到这些电话的人几乎没办法阻止。

DeleteMe是一家帮用户从互联网上删除个人信息的公司。联合创始人兼CEO Rob Shavell说,过去七个月里,客户关于生成式AI的咨询量暴增400%,达到数千条。这些咨询"明确提到了ChatGPT、Claude、Gemini或其他生成式AI工具"。具体分布是:55%涉及ChatGPT,20%涉及Gemini,15%涉及Claude,10%涉及其他AI工具。

打开网易新闻 查看精彩图片

Shavell说,客户投诉LLM泄露个人信息通常有两种情况。第一种,用户问聊天机器人一些关于自己的无害问题,结果返回了准确的家庭住址、电话号码、家庭成员姓名或雇主信息。第二种,用户发现AI生成了"看起来合理但错误的联系信息",于是报告了别人的数据泄露

以色列软件工程师Daniel Abraham的经历属于第二种。28岁的他在3月中旬收到一条WhatsApp消息,对方说Gemini告诉他这是某个公司的客服号码。Abraham根本不在那家公司工作。他测试了一下,发现Gemini确实会错误地把他的号码当成那家公司的联系方式。

这些隐私漏洞很可能是因为训练数据中包含了个人身份信息(PII),但具体机制尚不清楚。无论原因是什么,结果对接到电话的人来说都很糟——而且目前看来,没什么办法能阻止这种事发生。