AI最烦人的地方,是每次都要重新交代背景。你刚说完"帮我订餐厅",它忘了你有孩子;你问"哪款耳机好",它推了你去年退货的那款。谷歌Gemini的新功能Personal Intelligence(个人智能)想解决这个问题——代价是让它读取你的Gmail、相册和搜索记录。

这事听起来有点反常识。我们被训练成"数据越少越安全",但谷歌赌的是:数据越多,AI越懂你。4月19日,这个功能开始向美国所有Gemini用户(免费和付费)推送。

打开网易新闻 查看精彩图片

它到底能做什么

Personal Intelligence的核心逻辑很简单:把分散在谷歌各处的个人数据,变成AI的"长期记忆"。

原文作者Elyse Betters Picaro举了两个场景。搜产品时,结果不该是全网爆款,而该基于你过去的购买和偏好;设备出问题时,你不用翻箱倒柜找型号,因为AI能从你的邮件收据里直接读到。

这解决了一个真实的痛点——反复提供上下文。用过ChatGPT或Claude的人都知道,每次新开对话都像失忆重启。Personal Intelligence试图让AI记住你是谁。

但有个硬门槛:只支持个人谷歌账号,企业版Workspace不行。而且你必须主动授权连接Gmail、Google Photos等服务。

正方:为什么有人愿意给

支持这个设计的人,通常会提效率。

AI的通用回答正在贬值。当每个人都能调用同样的模型,差异化来自上下文——而你的邮件、照片、搜索历史,是独一无二的上下文资产。Personal Intelligence把"训练数据"从公开互联网换成了你的私人数字痕迹,理论上能筛掉大量无关噪音。

另一个被低估的点是容错成本。原文提到的设备维修场景很典型:普通人不会记得三年前买的打印机型号,但邮箱里有发票。AI读取这封邮件,比你自己翻找更快。

对谷歌来说,这也是一步棋。Gemini长期被批评"不如ChatGPT好用",而谷歌手里最大的牌就是Gmail和搜索的垄断地位。Personal Intelligence是护城河产品——别的AI公司拿不到这些数据,即使技术更强,也复刻不了这种体验。

反方:隐私换便利,这笔账怎么算

反对的声音集中在数据边界。

谷歌的隐私记录不算干净。2018年Gmail第三方应用扫描风波、2023年位置数据集体诉讼,都是前科。现在要把邮件内容、照片元数据、搜索关键词全部打通给一个对话模型,风险是集中化的——一旦泄露,不是密码被盗,而是完整的行为画像。

另一个问题是"功能蠕变"。今天用来看邮件收据,明天会不会用来推荐广告?谷歌的隐私政策写得模糊,"改善服务"的定义权在公司手里。用户授权时很难预判数据会被怎么用。

还有更隐蔽的代价:认知懒惰。当AI替你记住一切,你自己的记忆肌肉会萎缩。原文作者说"不用反复提供上下文"是优点,但这也可能意味着你越来越不需要理解自己的需求——只要问AI,它会猜。

我的判断:这不是技术问题,是信任测试

Personal Intelligence本身不算突破性技术。RAG(检索增强生成,一种让AI调用外部数据库的技术)已经成熟,谷歌只是把它接入了自家的数据管道。

真正的变量是用户愿不愿意交钥匙。

这里有个反直觉的观察:人们对隐私的敏感是场景化的。同样让AI读邮件,如果是"帮我找上周的快递单号",接受度很高;如果是"分析我的消费习惯并推荐商品",抵触情绪就会上升。Personal Intelligence的界面设计会极大影响采用率——它必须让用户明确感知到"AI正在用哪份数据回答这个问题"。

另一个关键指标是退出成本。目前可以关闭,但关闭后历史数据是否保留、重新开启是否需要重新授权,这些细节决定了用户是"试用"还是"依赖"。

对行业来说,这是AI个性化的分水岭时刻。OpenAI没有Gmail,苹果有数据但模型落后,微软有Office但搜索份额低。谷歌是唯一同时具备"数据垄断+模型能力+分发渠道"的玩家。如果Personal Intelligence跑通,其他公司要么找数据合作(比如OpenAI与苹果的交易),要么被迫接受更通用的、竞争力更弱的AI产品。

最后说回那个核心矛盾:AI越懂你,你越透明。这不是谷歌独有的困境,是所有个人化AI的终极博弈。Personal Intelligence的价值不在于技术多先进,而在于它把这个问题摊到了桌面上——让用户做一次明确的权衡,而不是在不知情中被画像。

如果你在用Gemini,现在可以去设置里找到这个开关。开不开取决于你更怕麻烦,还是更怕透明。但至少要去看一眼授权清单,知道自己在交换什么。