你用过AI写周报吗?那种"看起来对、读起来顺、直接交差"的爽感,可能正在让你付出代价。

Sal Attaguile在这篇文章里抛出一个反直觉的观察:AI越能干,人越容易掉链子。不是AI变笨了,是我们变懒了。而且这种"懒"不是摸鱼,是一种更难察觉的——系统性走神。

打开网易新闻 查看精彩图片

正方:效率革命真的发生了

没人否认AI带来的速度。起草报告、总结文档、分析数据、生成推荐——这些曾经耗时的任务,现在几分钟搞定。Attaguile自己也承认:"大多数时候,它们做得很好。"

这就是效率杠杆的本质:用更少的时间撬动更大的产出。一个能同时处理数十条信息流、永不疲倦、从不请假的系统,确实改变了工作流的基础假设。

企业爱谈"人机协作",潜台词是AI负责加速,人类负责把关。听起来分工明确,但问题就出在这里——"把关"这个动作,正在被悄悄跳过。

反方:但 oversight(监督审查)正在崩溃

Attaguile用了一个很贴切的类比:开车时的"那个混蛋"。

「我们都经历过——既当过那个被气到的司机,也得承认,自己偶尔就是那个突然变道、不打灯的人。」

为什么还没撞车?因为有人保持了警觉。他们盯着路况,读懂了局势,做了调整。

这个逻辑放到AI场景里同样成立:系统一旦运转,注意力就不是可选项,而是必选项。但现实是,当AI输出"看起来对"的时候,人类的第二眼越来越稀缺。

Attaguile列举的征兆很具体:

• 信任过快——没核实就采纳

• 跳过复查——"差不多就行"

• 直接推进——因为输出"感觉够好"

这些不是智力失败,是监督失败(failures of oversight)。更隐蔽的是后果的延迟性:一个 slightly off 的假设,不会立刻引爆,只会静静地把结论带偏。基于这个结论的决策开始漂移,链条上的每个环节都以为自己在执行正确的事。

「什么都没立刻坏掉。它只是安静地向错误方向移动。」

这就是自满(complacency)的运作方式——不是拒绝思考,而是停止核实。

我的判断:责任没有消失,只是浓缩了

Attaguile的核心论点可以总结为一句话:能力不消除责任,它浓缩责任。

他用了另一个工业时代的类比——起重机。机器能吊起数吨重物,但责任始终落在操作员身上。AI同理:它能大规模处理和推荐,但每一个被跳过的核查环节,都会把风险压缩进最终的决策点。

具体代价因领域而异:

• 建筑:一个细节遗漏导致结构失效

• 金融:资本损失

• 法律:立场瑕疵

• AI本身:规模化错误输出

效率创造了杠杆,而杠杆的方向取决于使用者是否在场。不是物理在场,是认知在场——保持 engaged(参与状态),而非 micromanaging(微观管理)。

两个可落地的自检工具

Attaguile没有停留在批评,给出了两个具体方法:

PPRR — 暂停、解析、反思、返回

这不是制造摩擦,是夺回控制权。面对AI输出时,强制插入一个停顿:先拆解它说了什么,再反思是否合理,最后决定是否采纳。整个过程可能只需几十秒,但打破了"接受-转发"的自动模式。

ESA — 认知自我审计(Epistemic Self Audit)

在采纳任何输出(无论来自人还是AI)之前,问自己:

• 我检查过关键假设吗?

• 如果这部分错了,下游会怎么偏?

• 我有没有因为"看起来对"而跳过验证?

PPRR 保 engagement(参与度),ESA 保 accountability(可问责性)。两者缺一,效率就会悄悄滑向自满。

为什么这件事值得现在讨论

AI工具的渗透率已经过了早期尝鲜阶段,进入日常依赖期。这正是风险最高的转折点——用户足够熟悉,开始放松警惕;系统足够复杂,错误足够隐蔽。

Attaguile的警告针对的不是AI反对者,而是重度使用者。恰恰是那些每天打开ChatGPT、Claude、Cursor的人,最需要审视自己的使用习惯:上一次认真核对AI输出是什么时候?有没有把"AI说的"直接当成"我确认的"?

技术史的一个反复出现的模式:新工具先被高估(神奇化),再被低估(背景化),最后风险暴露时才被重新评估。AI可能正在从第二阶段滑向第三阶段。

效率本身是中性的。它放大的是使用者的习惯——好的更好,坏的更坏。如果监督机制没有同步升级,杠杆就变成了漂移的加速器。

下一次用AI时,停一下。跑一遍快速检查。留在循环里。