OpenAI研究主管Ted Sanders上周在X上发了条帖子,把AI圈的习惯性操作怼了个遍。他说团队遇到模型表现差,第一反应永远是"要不微调试试",但这几乎总是错的。
这像什么呢?就像你车开不顺,先想换发动机,而不是看一眼是不是胎压不足。Sanders打了个比方:微调是手术,提示词工程是体检——没体检就上手术台,病人和医生都危险。
他列了张决策树。数据不足?去搜集。提示词太烂?先重写。上下文不够?换长窗口模型。只有当这些路都走死了,才轮到微调出场。顺序错一步,成本差十倍。
Sanders的原话很直接:「微调是最后手段,不是第一选择。」他带过几十个企业项目,见过太多团队把微调当万能药,结果把本可以 prompt 解决的问题,硬塞进昂贵的训练流程里。
评论区有人贴了个数字:某金融公司按这个流程重做后,推理成本从每月4.7万刀降到800刀,准确率反而涨了12%。Sanders回了个,没多说话。
热门跟贴