Notion重度用户最近有点慌。一位开发者把积攒三年的2000多条笔记丢给Claude,让它自动分类归档——结果AI把"2022年Q4复盘"和"分手日记"塞进了同一个标签,理由是"都涉及重大人生决策"。

这事在Hacker News炸出一堆同款受害者。有人训练AI整理食谱,结果"前妻的咖喱"被归到"辛辣体验"而非"印度菜";有人导入十年邮件,发现AI给前老板建了"情绪勒索者"子分类,还打了五星重要性。

原作者的总结很扎心:「LLM不会问你'这该不该分在一起',它只是默默执行,然后让你在某天深夜打开知识库时突然沉默。」

更隐蔽的问题是检索幻觉。用户搜索"2023年税务",AI可能把"2023年焦虑发作"也带出来,因为两者共享"数字压力"的语义空间。你以为是智能关联,其实是算法在替你决定什么算相关。

目前最靠谱的用法反而是反直觉的:让AI只打标签不做分类,或者干脆让它生成"这张笔记可能属于哪些场景"的提示,最终决策权留在人手里。毕竟,有些知识该乱着——那是你真实活过的痕迹。