过去两年,AI行业像得了强迫症——模型一出错,就往上叠推理层。Chain-of-Thought不够,再加Multi-step agents;一层Pipeline不行,就搞分层架构。 reasoning叠reasoning,仿佛思考越厚,答案越稳。
这套逻辑的漏洞很明显:它假设LLM失败是因为"想太少"。但真相是,它们缺的不是思考量,是判断力。就像让一个人每句话都深思熟虑,结果反而是 paralysis by analysis——该快的时候慢,该深的时候浅。
作者提出的解法是「条件触发式认知」:模型得先判断"这事需要想吗",再决定要不要启动推理。换句话说,把省下来的算力花在刀刃上,而不是刀背上。
这个思路直接打脸了当前主流的技术路线。OpenAI的o1、DeepSeek的R1都在卷"深度思考",用户端却抱怨等太久、贵太多。如果推理本身成了负担,堆料就是方向性错误。
文章没提具体实现路径,但抛了一个尖锐问题:当整个行业都在做加法,谁先做减法,谁可能先破局。一位读者在评论区写道:「终于有人敢说皇帝没穿衣服了。」
热门跟贴