打开网易新闻 查看精彩图片

你与聊天机器人的交流有多私人?

它是否帮你解读实验室检查结果?协助你整理财务状况?在凌晨2点你特别焦虑时为你提供建议?

在不深入思考的情况下,你可能正在透露大量个人信息,这可能会成为一个问题。

随着人们越来越多地将聊天机器人融入日常生活,研究人员正在努力弄清向AI提供个人信息的影响。

据伊隆大学2025年的一项研究显示,超过一半的美国成年人使用大语言模型。此外,43%的员工表示他们曾与AI分享敏感信息,包括财务和客户数据。更重要的是,聊天机器人被设计得友好,能让人们持续聊天并谈论自己。

"根本问题是你无法控制信息的去向,它可能以你完全意料不到的方式泄露出去,"斯坦福以人为本人工智能研究所的隐私和数据政策研究员Jennifer King说道。

尽管这个理论听起来很抽象,但像King这样的研究人员表示,值得考虑你究竟在告诉聊天机器人什么,以及这些信息将来可能产生什么后果。

以下是关于与聊天机器人过度分享个人信息你应该知道的六件事。

向聊天机器人提供敏感个人信息的危害是什么

没有人确切知道,这正是问题所在。研究人员的一个疑问是模型是否会记忆信息,如果是这样,这些信息是否可以被原样或近似原样地诱导出来。记忆化实际上是《纽约时报》对OpenAI诉讼的核心投诉之一。(OpenAI在2024年的一份声明中表示,"重现是一个罕见的错误",他们正在努力消除。)

"我们非常依赖公司做正确的事情,努力设置防护栏,防止记忆化数据泄露出来,"King说道。

在互联网上,人们有各种各样的个人信息在流传,包括在公共记录中,这些信息可能最终成为训练数据。或者有人可能上传了一份文件,比如放射学报告或医疗账单声明,而没有删除敏感信息。

King说,一个担忧是所有这些数据可能被用于监控。

如果这种担忧听起来很危言耸听,King提到了Anthropic在过去几周与国防部的争执,该公司反对其产品被用于大规模国内监控。

"从中得出的最重要的事情之一是某种默认承认这些东西可以用于大规模公共监控,"她说。"这正是我们会担心的事情类型,你可以使用这些模型来查看这么多不同的数据点。"

即使模型没有具体数据,它们仍然可能对人们做出预测。

在斯坦福关于她团队研究的一篇文章中,King举例说明了一个关于心脏健康晚餐想法的请求通过开发者的生态系统被过滤,将你归类为"健康脆弱"人群,这些信息最终落入保险公司手中。

King的研究发现表明,公司在解决这些问题方面做了什么并不总是很清楚。一些组织在将数据用于训练之前采取步骤去识别数据,比如模糊上传照片中的面部,这可以防止这些图片将来被用于面部识别。其他公司可能什么都没做。

了解平台设置和选项

尽管平台设置通常很复杂,但值得花时间了解你的选项。一些聊天机器人,如Claude和ChatGPT,提供私人聊天。如果你使用Claude的隐身聊天,你的对话将不会保存到你的聊天历史中或用于训练。不过,这些聊天不是固定设置。ChatGPT的临时聊天也是如此。

平台中可能有其他选项来删除聊天历史或完全选择退出让你的聊天用于模型训练数据。

King还说,记住你是在使用自己的账户还是工作账户是很好的。

"人们要么不知道,要么忘记了他们一直在与什么对话,"她说。"这是你的工作环境,你的工作AI,你一直在告诉它你感到非常沑郁。在那里员工没有隐私期待。"

聊天机器人对话比搜索查询更暴露个人信息

大多数人可能习惯了在互联网上进行一定程度的信息披露。即使是Google搜索也可能包含关于一个人生活的敏感信息。

不过,与聊天机器人的对话增加了更多信息和上下文。

"搜索查询的暴露性要小得多,特别是关于你的情绪状态,不像整个聊天记录,"King说道,她将搜索自杀预防热线之类的内容与详述一个人内心想法和感受的1000行记录进行比较。

AI并非真正私密:人类可能仍会阅读你的信息

AI众所周知不是人类。对一些人来说,这个概念可能让他们更愿意分享敏感信息。但仅仅因为没有人类在那里回复并不意味着没有人可能阅读你的信息。

King指出,一些平台使用人类进行强化学习,系统部分基于人类输入进行训练。例如,如果你标记一个聊天机器人回应,世界某处的工作人员可能会检查它,努力改进模型。正如King所说,什么时候你输入的内容可能最终被人类审查并不总是很清楚。

缺乏关于AI数据存储的监管

让这些要点特别棘手的是围绕AI公司如何存储敏感数据缺乏监管。

例如,《加州消费者隐私法》对医疗记录等数据如何需要与其他形式的数据区别对待有某些要求。但美国的监管可能因州而异,在联邦层面——嗯,没有监管。

"如果我们有保护我们的法律,风险就不会这么大,"King说道。

如果你已经过度分享了该怎么办

如果你发现自己因为可能已经向聊天机器人披露了太多信息而感到尴尬,你可能有几个选择。King建议删除旧对话和你可能为将来做的个性化设置。

King说,这些步骤是否从训练数据中删除你的信息,研究人员就是不知道。

每个平台都有自己处理个人数据的政策和方法,这可能需要一些深入挖掘。

Q&A

Q1:向聊天机器人透露个人信息有什么潜在风险?

A:主要风险是无法控制信息去向,可能被用于监控或预测。模型可能记忆信息并以意想不到的方式泄露。即使没有具体数据,AI也可能根据你的询问对你进行分类,比如将询问心脏健康饮食的人归类为"健康脆弱"人群,这些信息可能传达给保险公司。

Q2:如何保护与聊天机器人对话时的隐私?

A:可以使用私人聊天模式,如Claude的隐身聊天或ChatGPT的临时聊天,这些对话不会被保存或用于训练。还可以在设置中删除聊天历史或选择退出模型训练。要区分个人账户和工作账户,避免在工作AI中分享过于私人的信息。

Q3:如果已经过度分享个人信息该怎么补救?

A:建议删除旧对话和之前做的个性化设置。不过研究人员并不确定这些步骤是否能真正从训练数据中删除你的信息。每个平台都有自己的数据处理政策,需要仔细了解各平台的具体删除机制和隐私保护措施。