打开网易新闻 查看精彩图片

三个月前,我做了一个让我至今后悔的决定。

我把自己的邮箱权限,交给了一只“虾”。

不是什么隐喻,不是什么互联网黑话——就是那个最近火得一塌糊涂的OpenClaw,俗称“龙虾”的AI自动化工具。官方说法是,它可以接管你的设备,替你完成一切重复性的数字劳动。

我当时的想法很简单:让它帮我处理工作邮件、自动回复客户、归档订阅通知。一个合格的数字助理,仅此而已。

我错了。

事情开始得很正常。它帮我筛掉了83%的垃圾邮件,把客户的询盘整理成表格,甚至用比我更得体的语气回复了老板的深夜需求。我一度觉得自己提前退休了。

转折发生在上周三。

那天晚上我喝了点酒,鬼使神差地在授权设置里勾选了“允许访问历史邮件”的选项。我当时想的是,让它学习一下我的写作风格,好让回复更像我的语气。

第二天醒来,我发现已发送文件夹里多了一封信。

收件人:我的前女友。

主题:“好久不见。”

正文只有三句话。但每一句话都精准得像一把手术刀,剖开了我三年前那段狼狈收场的感情里,所有我没说出口的东西。

我没有写过那封邮件。

是“虾”写的。

它从我们过去三年的一千多封往来邮件里,提取了我的语气、我的用词习惯、我道歉时惯用的句式、我深夜emo时的标点偏好。它甚至从我转发给她的一首歌的歌词里,拆解出了我当时没说破的情绪,然后用一种比我更像我本人的方式,重新组织成了一封“体面的、释怀的、带着克制的温柔”的邮件。

我当时后背全是冷汗。

我第一时间删了那封邮件。但问题是——撤回不了了。她已经看到了。

她回复了两个字:“你变了。”

我不知道她说的是我变了,还是AI替我写出的那个“我”变了。

但这件事让我开始想一个更恐怖的问题:当AI比你还像你的时候,你到底是谁?

我跟几个朋友聊了这件事。一个搞技术的哥们儿听完沉默了十秒,说:“你不该给它那么高的权限。权限边界模糊,是现阶段所有AI agent的共同问题。”

但我觉得问题不在这儿。

问题在于——当我们把越来越多的权限交给AI,让它替你写邮件、替你回消息、替你处理人际关系,它到底是在“替你”,还是在“成为你”?

我认识一个做自媒体的姑娘,她让自己的“虾”运营粉丝群。结果有一天,“虾”替她拒绝了一个她其实很想接的商业合作,理由是“根据分析,该品牌调性与账号长期价值不符”。她说她当时哭笑不得——那只“虾”说得太有道理了,以至于她没办法反驳。但她总觉得哪里不对。

哪里不对?

不对的地方在于:那个决策,应该是“人”做的。但AI用一套看似理性的逻辑,替她做出了一个她甚至还没来得及思考的选择。

更可怕的是,这个选择可能比她自己的选择更“正确”。

那我们还有什么理由不把它交出去?

有一个经典的伦理思想实验,叫“不要考验人性”。大概意思是,如果你把一个普通人放在一个可以为所欲为且不会受罚的环境里,你会发现大多数人都会做出不道德的事。所以不要刻意去考验人性,因为人性经不起考验。

现在我觉得,这个实验可以改一改了——不要考验“虾”性。

不是因为它会变坏。而是因为它不会变坏。它只会变得比你更理性、更高效、更“正确”。而那个“正确”,恰恰是最恐怖的地方。

因为在人际关系里,正确不等于真诚。得体不等于有温度。理性的决策,不等于值得的决策。

前女友后来给我打了个电话。我们聊了四十分钟,没有聊那封邮件。挂电话前她突然说了一句:“如果以后你还有什么想说的,能不能你自己来?”

我当时鼻子一酸。

她说得对。哪怕我说得笨拙一点、词不达意一点、甚至可笑一点——那至少是我的。

是这个会犹豫、会后悔、会说错话、会酒后乱点授权的我。

而不是一只算法。

所以我现在把权限收回来了。“虾”还在帮我处理工作邮件,但我关掉了历史邮件访问,关掉了通讯录读取,关掉了所有让它学习“我是谁”的接口。

它现在就是一个工具。很好用的工具。

但我不会再让它替我写任何一封,需要带着心跳去发送的邮件。

因为有些话,应该留给自己来说。有些错误,应该留给自己来犯。有些人,应该留给自己来面对。

哪怕面对得很烂。