你以为AI失控是因为技术不够先进?一位系统架构师发现,AI智能体(AI Agent,指能自主执行任务的AI程序)崩溃的模式,和ADHD(注意力缺陷多动障碍)大脑失灵的方式惊人地相似。

正方:两者都需要外部脚手架

打开网易新闻 查看精彩图片

原文作者指出,AI智能体和ADHD患者共享同一个弱点:执行功能(Executive Function,指规划、启动、切换任务的心理能力)不稳定。两者都需要外部结构来补偿——不是更聪明的算法,而是更清晰的边界、更短的反馈循环、更明确的"下一步动作"。

这对管理者的启示很直接:别把AI当黑箱神谕,要把它当成需要脚手架的协作者。给AI智能体设定检查点、限制单次任务范围、强制状态汇报——这些"管理 overhead"不是低效,是必要的基础设施。

反方:类比会掩盖真正的技术风险

批评者可能认为,这种类比过于温情。AI没有神经递质失衡,它的"崩溃"是确定性的——上下文窗口溢出、工具调用失败、幻觉累积。用ADHD框架去理解,可能让人忽视工程层面的硬约束:token限制、延迟预算、错误传播。

更危险的是,"管理"这个词暗示AI是可驯化的。但当前智能体的不可预测性,源于统计本质而非执行功能障碍。混淆这两者,可能让团队低估安全对齐(Alignment,指AI行为与人类意图一致)的真实难度。

判断:类比的价值在于操作层面,不在理论层面

这个对比的真正价值不是科学解释,而是实践启发。ADHD社区花了数十年摸索出的补偿策略——任务拆解、环境设计、例行程序——恰好映射到智能体工程的最佳实践。

作者的身份值得注意:系统架构师、兼职CTO。这不是学术论文,是运维一线的经验压缩。当你下次部署智能体时,先问自己:我给它的上下文,够一个容易分心的人听懂吗?