你刚花20分钟把20篇论文喂给ChatGPT,它终于看懂你的研究了。第二天打开新窗口,一切归零——同样的文件再传一遍,同样的检索再来一次。这不是bug,是当下所有主流LLM的默认出厂设置。

Andrej Karpathy把这事儿捅破了。这位前OpenAI创始成员、特斯拉AI总监,在X上挂了个叫「LLM Wiki」的项目,专门收集这类被大厂藏起来的技术债。他的核心观点很直白:现在的AI对话系统,本质上是一次性塑料杯——用完即弃,从不洗碗。

问题出在架构底层。每次对话结束,模型状态就被清空,下回见面从零开始认识你。用户以为在"培养"AI,其实是在按次付费做重复劳动。Karpathy的原话是:「上下文窗口是新的RAM,但我们还在用磁带机时代的内存管理。」

更讽刺的是,这恰好是大厂的商业模式。OpenAI、Anthropic按token计费,用户每重复上传一次文件,都是真金白银的营收。没人有动力真正解决"记忆"问题,除非用户开始用脚投票。

Karpathy的Wiki目前只列了7条技术笔记,但每条都指向同一个追问:当AI能写诗写代码,为什么连"记住我是谁"都要额外收费?评论区最高赞的回复来自一位产品经理——"我花了200美元教Claude懂我的业务,换台电脑全没了,这算SaaS还是行为艺术?"