你用过AI写周报吗?那种"看起来对、读起来顺、直接交差"的爽感,可能正在让你付出代价。
Sal Attaguile在这篇文章里抛出一个反直觉的观察:AI越能干,人越容易掉链子。不是AI变笨了,是我们变懒了。而且这种"懒"不是摸鱼,是一种更难察觉的——系统性走神。
正方:效率革命真的发生了
没人否认AI带来的速度。起草报告、总结文档、分析数据、生成推荐——这些曾经耗时的任务,现在几分钟搞定。Attaguile自己也承认:"大多数时候,它们做得很好。"
这就是效率杠杆的本质:用更少的时间撬动更大的产出。一个能同时处理数十条信息流、永不疲倦、从不请假的系统,确实改变了工作流的基础假设。
企业爱谈"人机协作",潜台词是AI负责加速,人类负责把关。听起来分工明确,但问题就出在这里——"把关"这个动作,正在被悄悄跳过。
反方:但 oversight(监督审查)正在崩溃
Attaguile用了一个很贴切的类比:开车时的"那个混蛋"。
「我们都经历过——既当过那个被气到的司机,也得承认,自己偶尔就是那个突然变道、不打灯的人。」
为什么还没撞车?因为有人保持了警觉。他们盯着路况,读懂了局势,做了调整。
这个逻辑放到AI场景里同样成立:系统一旦运转,注意力就不是可选项,而是必选项。但现实是,当AI输出"看起来对"的时候,人类的第二眼越来越稀缺。
Attaguile列举的征兆很具体:
• 信任过快——没核实就采纳
• 跳过复查——"差不多就行"
• 直接推进——因为输出"感觉够好"
这些不是智力失败,是监督失败(failures of oversight)。更隐蔽的是后果的延迟性:一个 slightly off 的假设,不会立刻引爆,只会静静地把结论带偏。基于这个结论的决策开始漂移,链条上的每个环节都以为自己在执行正确的事。
「什么都没立刻坏掉。它只是安静地向错误方向移动。」
这就是自满(complacency)的运作方式——不是拒绝思考,而是停止核实。
我的判断:责任没有消失,只是浓缩了
Attaguile的核心论点可以总结为一句话:能力不消除责任,它浓缩责任。
他用了另一个工业时代的类比——起重机。机器能吊起数吨重物,但责任始终落在操作员身上。AI同理:它能大规模处理和推荐,但每一个被跳过的核查环节,都会把风险压缩进最终的决策点。
具体代价因领域而异:
• 建筑:一个细节遗漏导致结构失效
• 金融:资本损失
• 法律:立场瑕疵
• AI本身:规模化错误输出
效率创造了杠杆,而杠杆的方向取决于使用者是否在场。不是物理在场,是认知在场——保持 engaged(参与状态),而非 micromanaging(微观管理)。
两个可落地的自检工具
Attaguile没有停留在批评,给出了两个具体方法:
PPRR — 暂停、解析、反思、返回
这不是制造摩擦,是夺回控制权。面对AI输出时,强制插入一个停顿:先拆解它说了什么,再反思是否合理,最后决定是否采纳。整个过程可能只需几十秒,但打破了"接受-转发"的自动模式。
ESA — 认知自我审计(Epistemic Self Audit)
在采纳任何输出(无论来自人还是AI)之前,问自己:
• 我检查过关键假设吗?
• 如果这部分错了,下游会怎么偏?
• 我有没有因为"看起来对"而跳过验证?
PPRR 保 engagement(参与度),ESA 保 accountability(可问责性)。两者缺一,效率就会悄悄滑向自满。
为什么这件事值得现在讨论
AI工具的渗透率已经过了早期尝鲜阶段,进入日常依赖期。这正是风险最高的转折点——用户足够熟悉,开始放松警惕;系统足够复杂,错误足够隐蔽。
Attaguile的警告针对的不是AI反对者,而是重度使用者。恰恰是那些每天打开ChatGPT、Claude、Cursor的人,最需要审视自己的使用习惯:上一次认真核对AI输出是什么时候?有没有把"AI说的"直接当成"我确认的"?
技术史的一个反复出现的模式:新工具先被高估(神奇化),再被低估(背景化),最后风险暴露时才被重新评估。AI可能正在从第二阶段滑向第三阶段。
效率本身是中性的。它放大的是使用者的习惯——好的更好,坏的更坏。如果监督机制没有同步升级,杠杆就变成了漂移的加速器。
下一次用AI时,停一下。跑一遍快速检查。留在循环里。
热门跟贴