打开网易新闻 查看精彩图片

一个ChatGPT重度用户的数据资产有多少?我数了数自己的导出文件:127MB的压缩包,里面躺着3年对话记录、几百条自定义指令、无数被反复打磨的提示词模板。这些本该是护城河的东西,现在谷歌说可以一键搬运到Gemini。

这不是功能更新,这是AI时代的用户迁移战。谷歌Gemini最新推出的记忆导入功能,本质上是在拆除竞争对手的围墙——你花三年培养出的"数字分身",现在能带着全部家当跳槽。

127MB的数据包,3分钟完成"数字移民"

127MB的数据包,3分钟完成"数字移民"

测试流程比预想中简单。Gemini设置菜单里藏着"Import memory to Gemini"按钮,点击后两条路径:上传zip格式的对话导出文件,或者用系统提供的提示词让AI自动提取关键信息。我选了前者,把ChatGPT的数据包拖进去,去泡了杯咖啡,回来已经显示"记忆导入完成"。

导入的内容被拆解成可管理的记忆条目。Gemini不会原样复制对话,而是提炼出"用户偏好"——我喜欢简洁回答而非长篇大论,习惯在代码块里加详细注释,对Python比JavaScript更熟悉,讨厌被问"还有什么可以帮你"。这些细节被编码成机器可读的个人画像。

谷歌的产品经理在官方博客解释设计思路时打了个比方:换AI助手不该像离婚分财产,而像换手机时同步通讯录。但这个类比漏掉了一个关键事实——通讯录是静态的,而AI记忆是持续生长的有机体。ChatGPT记下的不只是"你是谁",还有"你们共同经历了什么"。

我故意测试了一个刁钻场景。让Gemini续写半年前ChatGPT帮我起头的短篇小说,它居然接上了主角的人物弧光,连我偏好的冷峻叙事风格都保留了下来。这种连续性幻觉做得足够逼真,以至于我有一瞬间忘了对面换了引擎。

记忆战争的底层逻辑:用户粘性的重新定价

记忆战争的底层逻辑:用户粘性的重新定价

打开网易新闻 查看精彩图片

OpenAI不是没料到这一手。ChatGPT的自定义指令(Custom Instructions)和记忆(Memory)功能,本质上都是在构建迁移成本——你调教得越精细,离开时的沉没成本越高。但谷歌这次直接提供了"成本转移"工具,把护城河变成了可搬运的资产。

这背后的商业算计很直白。Gemini需要用户,而AI老用户的获取成本远高于小白。据Sensor Tower数据,2024年Q4美国市场AI应用获客成本中,有ChatGPT使用经验的用户转化率比纯新用户高340%。谷歌愿意用技术便利换这批高价值用户的试用机会。

但技术实现上有道隐形门槛。ChatGPT的导出文件是JSON格式,包含元数据时间戳、模型版本、甚至当时的系统提示词。Gemini的解析器需要过滤掉OpenAI特有的技术痕迹,只保留"关于用户的事实"。这个清洗过程我观察到两个细节:所有涉及GPT-4技术限制的抱怨被过滤了,但对第三方插件的依赖偏好被保留——后者对谷歌推广自己的Workspace生态有直接价值。

更微妙的是权力关系的转移。当你把数据交给Gemini导入时,谷歌获得了竞争对手的用户行为样本。这些脱敏后的偏好数据,会成为训练下一代模型的养料。OpenAI花三年收集的用户洞察,谷歌用三分钟完成镜像。

实测中的意外发现:记忆也有"水土不服"

实测中的意外发现:记忆也有"水土不服"

导入完成后的48小时,我记录了Gemini的"记忆调用"频率。前10次对话中,它有7次主动引用了导入的信息,准确度约80%——能记住我是产品经理、住在北京、养了一只叫"油条"的猫,但把"偏好短句"误解成了"拒绝复杂解释",导致有两次回答过于简略而遗漏关键信息。

这种误读暴露了迁移技术的本质局限。AI记忆不是数据库迁移,而是跨系统的"人格转译"。ChatGPT和Gemini的底层架构不同,对同一用户描述的理解权重必然存在偏差。我的"简洁偏好"在ChatGPT的语境里意味着"用 bullet points 代替段落",Gemini却解读成了"能省则省"。

谷歌提供的校准机制是手动编辑记忆条目。我在设置里找到24条自动提取的记忆,逐条审核后删除了3条过时信息(比如已经结束的兼职项目)、修正了2条表述偏差。这个过程耗时15分钟,相当于给新来的助理快速培训。

打开网易新闻 查看精彩图片

但有个设计让我停下了鼠标。Gemini允许设置"记忆优先级",把某些条目标记为"高权重"。我把"技术写作背景"和"讨厌emoji"设为高优先级后,后续对话的匹配精度明显提升。这个细节说明谷歌意识到了记忆密度的管理问题——不是越多越好,而是越相关越有用。

行业连锁反应:AI助手进入"携号转网"时代

行业连锁反应:AI助手进入"携号转网"时代

这项功能上线一周,已经有开发者在GitHub发布Claude-to-Gemini、Perplexity-to-Gemini的第三方转换脚本。虽然谷歌官方只支持ChatGPT的直接导入,但开放的提示词模板足够灵活,任何能导出对话记录的AI服务理论上都能适配。

这对中小AI厂商是双重挤压。一方面,用户流失门槛降低,忠诚度更难维系;另一方面,数据格式向头部玩家靠拢的压力增大——如果你的导出文件结构不兼容主流迁移工具,用户会认为这是产品缺陷。已经有两家国内大模型团队在社交媒体暗示正在开发类似功能,"支持ChatGPT/Gemini双向迁移"被写进Q2路线图。

更深远的影响在商业模式层面。AI助手的竞争焦点可能从"功能竞赛"转向"记忆资产管理"。想象一个场景:用户把在Claude上培养的学术写作助手人格,迁移到Gemini后叠加Workspace办公场景,再导出到某个垂直领域的法律AI。人格碎片在不同平台间流动、重组,形成超越单一产品的"数字身份层"。

这种流动性对隐私框架提出新挑战。我的ChatGPT导出文件包含与心理咨询相关的对话片段(当时在做AI情感陪伴的竞品调研),虽然Gemini声称不会将这些用于广告定向,但"记忆导入"本身创造了新的数据汇聚点。当你的AI使用痕迹从分散在多个孤岛,集中到单一平台的记忆库,画像精度会指数级提升——无论这个平台是谷歌还是其他。

测试结束前的最后一个实验:我让Gemini和ChatGPT分别基于导入的记忆,描述"我是一个什么样的用户"。ChatGPT的答案是三段式散文,强调我的"分析型思维"和"对技术细节的执着";Gemini的回复是结构化列表,突出"效率优先"和"反感情绪化表达"。两者都没错,都是真实侧面的投影。但放在一起看,我突然意识到:我们以为自己在调教AI,其实也在被AI的反馈机制反向塑造。ChatGPT的长回复风格让我变得更啰嗦,Gemini的列表偏好可能让我未来更碎片化。

现在我的两个AI助手共享同一套记忆底座,却呈现出不同的"人格面具"。该把哪个当作更真实的自我投射?还是说,这种分裂本身就是数字时代的常态——我们在不同平台培养不同的数字分身,而迁移工具只是让分身之间的边界变得模糊?