如果AI能记住你三天前打开的文档、上周写了一半的代码、甚至刚才和同事的Slack对话,你愿不愿让它截屏你的电脑?
OpenAI在4月16日给Mac版Codex加了个叫Chronicle的功能,做了这个交易:它每隔一段时间截屏你的桌面,传到云端处理成文字摘要,存成本地文件。下次你问Codex"继续刚才的工作",它不用你重复背景。
这不是概念演示。超过100万开发者用过Codex,去年12月GPT-5.2-Codex模型发布后用量翻倍。现在OpenAI把工具从"写代码的"扩成"几乎啥都能干"的AI工作空间——能控制你的鼠标、内置浏览器、生成图片、装90多个插件。Chronicle是这盘棋里最激进的一步。
它怎么工作的
后台代理定时截屏→上传到OpenAI服务器→OCR和视觉分析提取内容→生成文字摘要→存成Markdown文件。
摘要存在~/.codex/memories_extensions/chronicle/,纯文本、未加密、永久保留。原始截图在系统临时目录存6小时自动删,OpenAI说服务器端不保留、不用来训练。
Greg Brockman在X上叫它"让Codex看见并拥有持续记忆的实验性功能"。
实际体验是:你切到Codex问"刚才那个bug",它知道你指的是半小时前Xcode里的报错;你说"继续写那封邮件",它记得你Gmail草稿写到第三段。不用复制粘贴、不用解释上下文。
但有个地理围栏
欧盟、英国、瑞士用户用不了。200美元/月的Pro订阅+Apple Silicon芯片是门槛。OpenAI没解释区域限制原因,但欧盟《人工智能法案》对生物识别和监控类功能有严格申报要求,Chronicle的屏幕捕获大概率触线。
这暴露了一个张力:OpenAI选了"云端处理优先",而行业另一派在走"本地优先"。
两条路线的分野
Screenpipe走纯本地——截屏、OCR、索引全在设备完成,数据不出机器。Rewind AI(已倒闭)也曾是这派代表,用苹果私有API做本地处理,宁可牺牲部分功能。
OpenAI反着来:截图必须上传,因为"视觉分析+OCR"的模型跑在云端。本地只存结果,计算-heavy的环节交给服务器。
这个选择让Chronicle功能更强——能调用GPT-4o级别的视觉理解,识别复杂UI布局、图表、代码结构。但也意味着你的屏幕内容,哪怕只是一瞬间,属于OpenAI的基础设施。
隐私政策里的"不用于训练"是当下的承诺,不是架构上的保证。技术上,服务器收到截图后发生什么,用户只能信任。
为什么现在做这件事
AI助手的竞争正在从"你问它答"转向"它知道你要什么"。
上下文窗口再长,也长不过人类的工作流。Anthropic的Claude有20万token,Gemini号称200万,但真实工作场景是:你三天前看了个PDF,昨天和同事讨论过,今早写了一半代码——这些信息分散在不同应用、不同时间,AI无从得知。
Chronicle是"环境感知AI"的桌面首次大规模落地。不是用户主动上传,是被动、持续、后台的捕获。
OpenAI的赌注是:开发者愿意为这种"无缝感"支付溢价,并接受隐私 trade-off。100美元/月的定价筛选的是专业用户,这个群体对效率敏感、对风险容忍度相对较高。
竞争对手不会闲着。Anthropic有Computer Use,Google在测Project Astra的桌面版,微软Copilot深度绑定Windows系统层。但Chronicle抢先定义了"Mac上的环境AI"体验标准——哪怕是以争议的方式。
未加密的本地文件是另一个隐患
Markdown摘要永久存在用户目录,明文存储。这意味着:
任何能访问你Mac的人,都能读取Codex对你的记忆;
恶意软件可以批量窃取这些文件,比截屏更高效;
企业IT部门很难管控——数据没走公司DLP系统,却包含了工作内容的完整轨迹。
OpenAI把"安全"定义为云端不保留,但本地攻击面被忽视了。对于处理敏感代码、金融数据、医疗信息的用户,这是结构性风险。
功能扩张背后的产品逻辑
4月16日的更新把Codex重新定位。原名是"AI编程助手",现在官网写的是"AI工作空间"。
这个转变有数据支撑:开发者用Codex不只是写代码,是查文档、调API、写邮件、做设计。OpenAI选择顺应行为,把工具边界扩到"几乎一切"。
Chronicle是这个逻辑的延伸——既然用户在不同应用间跳转,AI就该跟着跳转,而不是等着被召唤。
90多个插件是另一个信号。Codex现在能操作Figma、Notion、Linear、Jira等主流工具,Chronicle提供的上下文让这些操作更连贯。比如它看到你刚在Figma里改了按钮颜色,去Linear创建任务时自动引用那个设计决策。
这种跨应用记忆,是单一工具集成做不到的。只有系统级捕获+云端处理+插件生态的组合,才能实现。
区域限制暗示的监管压力
欧盟、英国、瑞士的缺席不是技术原因。Chronicle的屏幕捕获符合GDPR对"监控"的广义定义,需要明确的法律依据和用户同意机制。
OpenAI选择不上线,而不是改造架构做本地处理。这说明:要么改造成本太高,要么他们认为本地方案会牺牲核心体验。
这个决策有先例。Apple Intelligence的屏幕感知功能仅限美国英语首发,欧盟被排除;Microsoft Recall功能因隐私争议推迟,最终改为本地处理+用户显式授权。
OpenAI走了第三条路:先在有监管空间的地区上线,观察反馈,再决定下一步。
竞争格局的微妙变化
Screenpipe这类本地方案获得了道德高地,但商业上承压。它们的痛点是:本地模型能力有限,复杂视觉理解跟不上,用户体验有天花板。
Rewind AI的倒闭是个警示。2023年它融资超3000万美元,主打"搜索你见过的所有内容",但本地索引消耗大量存储和算力,免费用户转化困难,付费墙又太激进。2024年底团队解散,技术被收购。
OpenAI的云端方案规避了这些坑:存储和计算成本转嫁给服务器,用户端体验轻量化。代价是信任模型完全不同。
对于企业客户,这个选择更复杂。本地方案满足合规审计要求,但功能落后;云端方案效率高,却需要重新评估供应商风险。
开发者群体的真实反应
Chronicle上线后,技术社区的讨论分成两派。
支持方看重效率增益。独立开发者@swyx在X上写道:"我终于不用每次切回Codex都复制粘贴上下文了,它知道我刚才在干什么。"这种"被理解"的体验,在复杂调试场景中确实省时间。
质疑方关注架构风险。安全研究员@lcamtuf指出:"6小时删除是运营承诺,不是技术保证。服务器端的日志、监控、故障转储都可能保留截图痕迹。"
更实际的顾虑来自企业用户。一位Stripe工程师在Hacker News评论:"我们的安全团队不会允许任何屏幕数据离开设备。Chronicle对我们就是不可用状态,无论功能多强。"
这种分歧恰恰说明市场的分层:个人开发者和小团队可能接受 trade-off,大型企业的采购流程会把Chronicle挡在门外。
产品设计的取舍逻辑
OpenAI在Chronicle里做了几个关键取舍,值得拆解:
云端vs本地:选云端,换取更强的视觉模型能力;
临时vs永久:原始截图临时,摘要永久——平衡服务器成本与用户体验;
加密vs明文:本地摘要未加密,降低实现复杂度,但增加泄露风险;
全量vs区域:排除高监管地区,减少合规负担,先验证产品假设。
这些取舍的共同点:优先功能完整性和上线速度,把安全和隐私作为可配置选项而非架构核心。
对于一家以"AGI安全"为公众形象的公司,这个选择有讽刺意味。但商业上合理——Chronicle是实验性功能,OpenAI需要快速验证"环境感知AI"的需求强度,再决定投入深度。
下一步可能的变化
如果Chronicle的数据反馈积极,几个演进方向可以预见:
企业版可能增加本地处理选项,满足合规需求;
摘要加密和访问控制会被提上日程,回应安全批评;
区域限制可能通过"本地模式"解除,但功能降级;
与Apple的深度集成——用macOS原生API替代截屏,降低隐私争议。
反向风险也存在。监管收紧可能迫使架构重做,或者某些地区永久下线。用户信任危机——比如一次数据泄露或误用事件——会重创产品声誉。
为什么这件事重要
Chronicle是AI助手从"工具"变成"环境"的关键一步。之前的AI需要你召唤、输入、解释;现在的AI可以旁观、记忆、预判。
这个转变的技术基础是大模型多模态能力的成熟,但产品形态的选择——云端还是本地、主动还是被动、加密还是明文——定义了用户与AI的权力关系。
OpenAI选了效率优先、信任后置的路线。这在短期内可能赢得专业用户,长期看会考验其安全叙事的一致性。竞争对手的本地方案虽然落后,却保留了道德筹码,等待监管或舆论的转向。
对于25-40岁的科技从业者,Chronicle是一个试金石:你有多相信AI公司能负责任地处理你的数字生活全貌?你的答案,决定了这个产品的天花板。
热门跟贴