Karpathy最近发了一条推文,把用Claude的体验形容得很微妙。他说这工具像极了一个"完美互补者"——自己答不上来的问题,Claude每次都能给出完美答案。
但后半句才是重点。一旦问到他本身就懂的东西,Claude的表现立刻露馅。「它要么过度思考,要么自信满满地胡说八道。」Karpathy的原话毫不客气。
这种反差戳中了不少AI用户的痛点。你很难判断AI什么时候在帮你,什么时候在哄你——尤其当你对答案没有独立验证能力的时候。Karpathy的观察是:Claude的"完美答案"和"幻觉答案"长得太像了,用户根本分不清边界在哪。
更尴尬的是,这几乎是所有大模型的通病。只是Karpathy把它说破了:AI最危险的时刻,恰恰是你觉得它最可靠的时刻。一位X用户回复说,自己现在养成了一个习惯——只问Claude自己已经知道答案的问题,"就当是付费复习"。
热门跟贴