打开网易新闻 查看精彩图片

一项最新研究显示,约三分之一的AI应用用户会与聊天机器人进行极为私人的对话,这一人数规模引发了隐私安全专家的高度关注。

斯坦福大学的一项独立研究表明,美国六大主流AI企业均会将用户输入数据用于模型训练,这一做法可能使用户隐私面临泄露风险。专家指出,即便用户未主动分享敏感信息,日常提问中也可能包含不愿被公开的个人数据。

专家指出,AI应用的标准化使用条款通常赋予企业将用户对话作为训练数据的权利。当用户上传文档供AI分析时,相关文件内容同样存在被用作训练材料的可能。

针对这一隐患,主流AI应用均提供数据收集退出选项。用户可在各平台设置中手动关闭相关权限:ChatGPT用户需进入“设置-数据控制”页面关闭“提升模型”选项;Claude用户可在设置页面取消“帮助改进Claude”选项;Alexa用户应依次点击“设置-Alexa隐私-管理您的Alexa数据”关闭语音记录使用权限。

值得注意的是,Meta AI已被曝出移除了用户退出选项,成为唯一无法通过设置关闭数据收集的主流AI平台。

该报道由9to5Mac于2026年4月18日发布。

参考链接:
https://9to5mac.com/2026/04/18/how-to-protect-your-privacy-by-opting-out-of-data-collection-in-popular-ai-apps-sponsored/