2025年底,韩国有个21岁女孩被指控杀人,警方没依靠监控或目击证人,而是翻查她和ChatGPT的聊天记录,里面她问过安眠药混酒致死剂量怎么算,还打听怎么伪装成意外,这些话成了关键证据,这事没上国内主流新闻,但在小红书和豆瓣上悄悄传开,好多人第一次意识到,AI可能不只是个工具,它好像会默默记下你说的每一句话。

打开网易新闻 查看精彩图片

我表妹在杭州一家大公司做产品工作,去年她开始经常用AI聊天讨论工作,领导突然给她安排一个任务,这个任务不写进考核指标,还私下给了些钱,她不敢问同事,担心别人说她计较,也不敢告诉家人,怕他们觉得她想太多,她就一直问AI,他是不是对她有特别的想法,她这样回消息会不会显得太主动,AI每次都仔细回答,但她后来删掉了所有记录,她说,不是因为后悔说了那些话,而是害怕有一天这些话被别人看到。

还有人把AI当成倾诉对象,只敢对它讲心里话,朋友圈里发着“今天天气不错”,私下却问AI:“丈夫三个月没碰我,是不是感情淡了?”“我喜欢同性,但父母催着结婚,这事该怎么办?”这些人不是不想找人聊天,是试过找别人,结果对方要么劝你“别想太多”,要么转身就传给别人听,AI不会评价你,但它也不会真的忘记这些事。

打开网易新闻 查看精彩图片

现实里出过不少事,一对情侣吵架时,男生随手点开女友手机里的AI应用,发现她连续两周都在分析男友回消息慢是不是冷暴力,结果当场就闹翻了;另一个家长帮孩子查数学题,不小心点进AI对话,看到孩子问过自杀是不是解脱,吓得马上报警;还有公司IT检查员工电脑,翻出一个新人对女上司的57条心理推演,比如她删邮件是不是针对自己,送咖啡会不会被觉得轻浮,这些都不是编的,全是真实发生的。

很多人删除和AI的对话记录,不是出于羞愧,只是习惯使然,过去人们清除浏览器历史,后来清理微信搜索词,现在轮到AI聊天记录,因为人和AI交流时几乎不设防,没有客套话,不用绕弯子,直接说出“我快撑不住了”这种话,AI没有记忆上限,只要用户不删除,十年前说的话依然留在服务器里,更麻烦的是企业、家庭或法院都可能依法调取这些记录,2025年《个人信息保护法》实施后,平台仍能保留用户未明确删除的对话,理由是优化服务,用户根本不清楚这是否算获得授权。

我们总把AI当成工具,就像计算器那样用完就关掉,但实际上它不一样,AI本身不会保存数据,可背后的公司会记录,你说的每句话都可能用来训练模型,或者某一天在法庭上被拿出来作证,最让人无奈的是,没有人签过允许调取数据的同意书,但我们却默认了不删除就等于可以查看。

有人觉得,那就别用AI了,可现实是,很多情绪找不到出口,AI反而成了唯一能接住的人,问题不在要不要用,而在怎么去用,比如,别在公司电脑上聊私人事情,打开AI之前关掉保存对话的选项,同一个账号不要到处登录,最重要的是,心里留点东西只给自己知道,有些话,连AI也不必全都说出来。

上周我翻到一个帖子,一个女生提到她把和AI的聊天记录删了三次,第一次是因为男朋友翻看她的手机,第二次是担心妈妈会看到,第三次是她半夜醒来突然想到,如果这些对话被别人公开,别人会怎么看她,她没有找到答案,只是又按了删除键十三次,直到确认全部清空。

现在很多人都在使用人工智能,却没有人指导怎么安全地使用它,就像十年前大家开始用微信时,没人提醒你撤回消息并不是真正消失,技术发展得太快,人的警惕心总是跟不上节奏。