1000次自动部署,7分钟从零到运行,工程师们投入数周调试——这个数字本该讲一个"个人AI操作系统"崛起的故事。但Nishant Soni(NonBioS创始人)在复盘后得出一个反直觉结论:零个能站住脚的使用场景。
问题不在"能不能跑起来"。OpenClaw确实能安装、能连接WhatsApp和Discord、能调用Claude和GPT-4、能执行shell命令。黄仁勋口中"个人AI的操作系统",技术层面是真实存在的。但当Soni追踪这1000次部署的实际流向,他发现一个被兴奋感掩盖的裂缝——记忆系统不可靠,且崩溃时机完全不可预测。
一个生日派对引发的信任崩塌
Soni举了个具体场景。你让OpenClaw代发一封邮件,跟进你正在筹划的生日派对。此前对话里,3人确认参加,1人明确拒绝。OpenClaw发出更新邮件——但它忘了谁拒绝了。错误信息群发出去,而你根本没检查,因为"自主代理"的核心卖点就是让你不必逐条审核。
需要逐条审核的自主代理,只是步骤更繁琐的聊天机器人。
更麻烦的是遗忘的随机性。上下文窗口填满后,关键信息可能丢失,也可能保留,你无法预判。直到错误发生,你才知道这次忘了什么。这不是下个版本能修的bug,而是OpenClaw管理上下文的基本机制决定的——代理持续运行,上下文持续累积,遗忘持续发生。
Soni在NonBioS的解法叫"战略性遗忘"(Strategic Forgetting)。他坦承:让AI代理在长任务周期内保持连贯,是这个领域最难的工程问题。不是靠把记忆按年月日分文件存储就能解决的——大脑不是可索引的文件列表,人也不会以固定精度记住所有事。
为什么工程师们不愿承认
一个有趣的现象:那些投入数周的工程师,很多人"真心想让它work"。他们不是为了发LinkedIn炫技,是确实看到了"永远在线的个人助理"这个愿景的吸引力。但当Soni追问具体在做什么、解决了什么,回答往往滑向抽象——"我在探索可能性""我在理解代理的行为模式"。
这种探索本身有价值吗?对个体学习者或许有。但作为产品,OpenClaw目前的状态是:你能描述它理论上能做什么,却很难找到它实际上该做什么。
对比另一个维度会更有意思。Soni提到,有人把OpenClaw接入了家庭自动化系统,试图让它管理灯光和温度。结果?代理在某次对话后"忘记"了主卧有人对光敏感,半夜把亮度调到最高。用户被晃醒时,OpenClaw的日志里甚至找不到这个偏好被记录过的痕迹——不是被覆盖,是仿佛从未存在。
记忆问题的行业镜像
OpenClaw的困境不是孤例。整个"持久化AI代理"赛道都在面对同一个拷问:当上下文窗口有限,而代理被要求无限期运行,什么该记住、什么该遗忘、如何优雅地遗忘?
当前主流方案大致三类:硬截断( oldest first 丢弃)、摘要压缩(用LLM自己总结历史)、外部记忆库(向量检索)。OpenClaw的做法接近第三类,但Soni指出其文件化存储的缺陷——时间维度被机械切割,语义关联被打散。你今天和代理讨论的项目,下周可能被归档到"2026年4月"文件夹,检索时优先级低于昨天的天气查询。
NonBioS的"战略性遗忘"试图模仿人类认知:主动丢弃低价值信息,在关键节点固化决策框架而非事实细节。但这套方案目前也只跑在特定垂直场景,通用化同样是未解题。
一个值得玩味的细节:Soni的1000次部署数据来自NonBioS的基础设施,这意味着用户群体有筛选——他们至少是愿意尝试自动化部署工具的人,技术素养高于平均水平。即便如此,"零 legitimate use case"的结论依然成立。如果把范围扩大到更普通的早期采用者,情况只会更糟。
黄仁勋的"操作系统"比喻被反复引用,但操作系统有个基本前提:确定性。你不会担心Windows某天突然忘记C盘的存在,或macOS随机丢弃你的文件关联。OpenClaw的记忆层目前还做不到这种可预测性,而不可预测的遗忘比明确的限制更危险——后者至少让你知道边界在哪。
Soni在文章结尾没有给解决方案,只留了一个观察:那些坚持运行OpenClaw超过两周的人,大多发展出了一套人工检查清单——在关键操作前手动确认代理的"记忆状态"。这算不算一种胜利?还是恰恰证明了产品设计的失败?
你的AI代理如果每次行动前都需要你翻查它的"记忆账本",它还算代理吗——还是已经退化成需要你全程陪护的高级输入法?
热门跟贴