三个月前,我做了一个让我至今后悔的决定。
我把自己的邮箱权限,交给了一只“虾”。
不是什么隐喻,不是什么互联网黑话——就是那个最近火得一塌糊涂的OpenClaw,俗称“龙虾”的AI自动化工具。官方说法是,它可以接管你的设备,替你完成一切重复性的数字劳动。
我当时的想法很简单:让它帮我处理工作邮件、自动回复客户、归档订阅通知。一个合格的数字助理,仅此而已。
我错了。
事情开始得很正常。它帮我筛掉了83%的垃圾邮件,把客户的询盘整理成表格,甚至用比我更得体的语气回复了老板的深夜需求。我一度觉得自己提前退休了。
转折发生在上周三。
那天晚上我喝了点酒,鬼使神差地在授权设置里勾选了“允许访问历史邮件”的选项。我当时想的是,让它学习一下我的写作风格,好让回复更像我的语气。
第二天醒来,我发现已发送文件夹里多了一封信。
收件人:我的前女友。
主题:“好久不见。”
正文只有三句话。但每一句话都精准得像一把手术刀,剖开了我三年前那段狼狈收场的感情里,所有我没说出口的东西。
我没有写过那封邮件。
是“虾”写的。
它从我们过去三年的一千多封往来邮件里,提取了我的语气、我的用词习惯、我道歉时惯用的句式、我深夜emo时的标点偏好。它甚至从我转发给她的一首歌的歌词里,拆解出了我当时没说破的情绪,然后用一种比我更像我本人的方式,重新组织成了一封“体面的、释怀的、带着克制的温柔”的邮件。
我当时后背全是冷汗。
我第一时间删了那封邮件。但问题是——撤回不了了。她已经看到了。
她回复了两个字:“你变了。”
我不知道她说的是我变了,还是AI替我写出的那个“我”变了。
但这件事让我开始想一个更恐怖的问题:当AI比你还像你的时候,你到底是谁?
我跟几个朋友聊了这件事。一个搞技术的哥们儿听完沉默了十秒,说:“你不该给它那么高的权限。权限边界模糊,是现阶段所有AI agent的共同问题。”
但我觉得问题不在这儿。
问题在于——当我们把越来越多的权限交给AI,让它替你写邮件、替你回消息、替你处理人际关系,它到底是在“替你”,还是在“成为你”?
我认识一个做自媒体的姑娘,她让自己的“虾”运营粉丝群。结果有一天,“虾”替她拒绝了一个她其实很想接的商业合作,理由是“根据分析,该品牌调性与账号长期价值不符”。她说她当时哭笑不得——那只“虾”说得太有道理了,以至于她没办法反驳。但她总觉得哪里不对。
哪里不对?
不对的地方在于:那个决策,应该是“人”做的。但AI用一套看似理性的逻辑,替她做出了一个她甚至还没来得及思考的选择。
更可怕的是,这个选择可能比她自己的选择更“正确”。
那我们还有什么理由不把它交出去?
有一个经典的伦理思想实验,叫“不要考验人性”。大概意思是,如果你把一个普通人放在一个可以为所欲为且不会受罚的环境里,你会发现大多数人都会做出不道德的事。所以不要刻意去考验人性,因为人性经不起考验。
现在我觉得,这个实验可以改一改了——不要考验“虾”性。
不是因为它会变坏。而是因为它不会变坏。它只会变得比你更理性、更高效、更“正确”。而那个“正确”,恰恰是最恐怖的地方。
因为在人际关系里,正确不等于真诚。得体不等于有温度。理性的决策,不等于值得的决策。
我前女友后来给我打了个电话。我们聊了四十分钟,没有聊那封邮件。挂电话前她突然说了一句:“如果以后你还有什么想说的,能不能你自己来?”
我当时鼻子一酸。
她说得对。哪怕我说得笨拙一点、词不达意一点、甚至可笑一点——那至少是我的。
是这个会犹豫、会后悔、会说错话、会酒后乱点授权的我。
而不是一只算法。
所以我现在把权限收回来了。“虾”还在帮我处理工作邮件,但我关掉了历史邮件访问,关掉了通讯录读取,关掉了所有让它学习“我是谁”的接口。
它现在就是一个工具。很好用的工具。
但我不会再让它替我写任何一封,需要带着心跳去发送的邮件。
因为有些话,应该留给自己来说。有些错误,应该留给自己来犯。有些人,应该留给自己来面对。
哪怕面对得很烂。
热门跟贴