2026年4月,Zendesk工程团队抛出一个反直觉判断:当AI让写代码变得廉价,真正卡脖子的环节反而变成了"吸收能力"。这不是技术概念,而是一套组织层面的新能力——把海量代码转化为可靠价值的系统效率。

从农业到软件:一个约束理论的跨域迁移

打开网易新闻 查看精彩图片

Zendesk工程博客的作者Bence A. Tóth搬出了制造业的经典框架。他用农业打比方:给农民更好的犁,不会自动增加粮食产量——如果种子、水源、劳动力没跟上,单点改进只是让下一个瓶颈暴露得更明显。

这个逻辑在软件行业正在重演。

生成式人工智能(Generative AI,指能自动生成文本、代码等内容的技术)把代码生产的边际成本压到极低。Tóth的核心论点是:当"写代码"这个环节被AI大幅加速,它就从约束条件变成了非约束条件。系统总吞吐量不再取决于程序员的手速,而取决于下游环节能消化多快。

他把这种消化能力定义为"吸收容量"(Absorption Capacity),包含四个具体维度:问题定义的清晰度、变更与系统整体的整合度、行为正确性的验证效率、以及最终交付价值的稳定性。

换句话说,AI可以一小时生成一千行代码,但如果架构评审队列排满、测试环境资源不足、或者产品经理说不清需求边界,这些代码就只是堆在仓库里的半成品。

Zendesk的内部实验:代码多了,交付快了?

Tóth在文章中提供了Zendesk的观察数据。公司引入AI辅助编程工具后,开发者的代码产出量确实上升,但端到端的交付周期(Lead Time)并没有等比例缩短。

瓶颈出现在代码合并之后。

评审者发现AI生成的代码表面合规,但上下文理解常有偏差。一个微服务的改动可能牵出三个下游系统的兼容性问题,而这些问题在自动化测试阶段才能暴露。更隐蔽的是,AI倾向于用"最可能的模式"填补信息缺口——当需求文档本身模糊时,它生成的代码反而加速了错误假设的固化。

Zendesk的应对不是限制AI使用,而是重新设计工作流。他们把"吸收容量"拆解为可操作的指标:需求澄清会议的时长、架构决策记录的覆盖率、评审队列的等待时间、生产环境故障的归因速度。每个指标对应一个强化环节,目标不是让AI写得更慢,而是让组织消化得更快。

从"代码工厂"到"价值管道":组织能力的重新定义

这个框架的颠覆性在于,它把软件工程的管理焦点从"生产效率"转向了"流动效率"。

传统DevOps指标——代码提交频率、构建速度、部署频次——假设瓶颈在左侧(生产端)。Zendesk的观察是,AI正在把瓶颈系统性推向右侧(消费端)。代码不再是稀缺资源,注意力才是。评审者的认知负荷、测试环境的算力配额、运维团队的响应带宽,这些曾经隐形的约束条件现在直接决定交付节奏。

Tóth特别强调了"架构连贯性"的风险。AI工具通常针对局部优化——完成当前函数、补全当前文件。但软件系统的复杂性来自组件间的耦合关系。当多个开发者同时用AI生成代码,缺乏全局视角的局部优化可能快速累积为技术债务。Zendesk的解法是把架构评审前置到编码之前,用"设计契约"约束AI的生成空间,而非事后审查。

这种前置化也体现在需求侧。Tóth指出,AI放大了"垃圾进、垃圾出"的效应。模糊的需求描述会被AI转化为看似合理但方向偏差的实现。Zendesk开始要求产品团队输出更结构化的需求文档,包括边界条件、失败场景、依赖关系——这些原本"可有可无"的上下文,现在成为AI有效工作的必要输入。

行业镜像:谁在为"吸收容量"买单

Zendesk不是唯一察觉到这一转变的公司。2024年以来,多家技术组织的公开分享呈现出相似模式。

Netflix的工程博客曾讨论过"AI生成代码的测试覆盖率悖论"——AI能写出通过单元测试的代码,但集成测试的失败率反而上升。Google的DeepMind团队在研究中发现,大语言模型(Large Language Model,指参数量巨大的神经网络模型)在代码补全任务中倾向于重复训练数据中的常见模式,对特定业务领域的边缘情况覆盖不足。这些观察与Zendesk的"吸收容量"框架相互印证:代码生成加速的边际收益,正在被验证和整合环节的摩擦成本抵消。

更宏观的信号来自人才市场。2025年硅谷的招聘数据显示,"AI辅助开发"相关岗位的增长集中在两类角色:一是擅长与AI协作的"提示工程"(Prompt Engineering,指设计输入指令以优化AI输出的技术)专家,二是强化系统级把控的架构师和QA工程师。纯编码岗位的需求增速明显放缓。这不是程序员被取代的故事,而是技能组合正在重组——从"写代码"扩展到"定义问题、验证假设、管理复杂度"。

投资层面也有呼应。2025年Q1,开发工具领域的融资热点从"AI代码生成"转向"AI代码审查"和"智能测试生成"。投资者开始追问:当代码供给过剩,什么样的基础设施能帮助组织筛选、验证、整合这些代码?Zendesk的"吸收容量"概念为这个问题提供了分析框架。

约束迁移的历史回声

Tóth的农业和制造业类比并非随意为之。约束理论(Theory of Constraints)由物理学家Eliyahu Goldratt在1980年代提出,最初用于优化工厂排程。其核心洞见是:任何系统的产出都由最薄弱的环节决定,局部优化其他环节只会造成库存积压。

软件行业经历过类似的约束迁移。2000年代的敏捷运动,本质是把瓶颈从"开发完成"推向"可运行软件"——通过持续集成和自动化测试,缩短编码到验证的周期。2010年代的DevOps,进一步把瓶颈推向"生产环境价值"——通过基础设施即代码和监控体系,加速部署到反馈的闭环。

每一次迁移都伴随着工具革命和组织变革。敏捷依赖单元测试框架和看板方法;DevOps依赖云原生技术和跨职能团队。Zendesk判断,AI代码生成正在触发新一轮迁移:瓶颈从"代码生产"转向"价值吸收",需要的工具是更智能的验证系统和更结构化的知识管理,需要的组织变革是强化系统思考、弱化局部优化。

对技术管理者的即时启示

Zendesk的框架对当下正在部署AI编程工具的团队有直接参考价值。

第一,重新测量。如果团队还在用"代码行数"或"提交频率"追踪AI工具的效果,可能会错过真实的约束位置。建议补充的指标包括:评审等待时间、测试阶段缺陷逃逸率、生产环境故障的修复时长、以及需求变更的返工比例。这些指标指向"吸收容量"的各个环节。

第二,前置投资。当代码生成变快,需求澄清和架构设计的相对成本上升。Zendesk的实践是把更多资深工程师的时间投入到早期阶段,用"设计契约"和"示例驱动"的方式减少AI的猜测空间。这不是增加流程负担,而是把后期的验证成本转移到前期的明确性建设。

第三,接受减速。在某些场景下,限制AI的使用强度反而是优化总吞吐量的策略。当评审队列已满或测试环境资源紧张时,继续加速代码生成只会增加在制品库存。Tóth建议用"拉动式"而非"推动式"的节奏管理——让下游环节的容量信号反向控制上游的生成速度。

更底层的追问:软件工程的认知重构

Zendesk的文章触及一个尚未被充分讨论的问题:当AI成为代码生产的主体参与者,"编程"这项活动的本质边界在哪里?

传统意义上,程序员的核心价值在于把模糊意图转化为精确指令。AI的介入把这个转化过程外包了一部分,但并未消除转化本身的需求——只是转移了位置。现在,关键转化发生在产品经理与AI之间(需求澄清)、架构师与AI之间(设计约束)、以及测试工程师与AI之间(验证标准)。这些角色之间的协作界面,正在成为软件交付的新战场。

Tóth的"吸收容量"框架暗示了一种组织进化方向:从"代码工厂"模型(集中优化生产环节)转向"认知管道"模型(优化知识流动和验证效率)。在这个模型中,AI是管道中的加速泵,但管道的直径、阀门的位置、以及过滤器的精度,决定了最终能流过多少有价值的产品增量。

这也解释了为什么Zendesk强调"架构连贯性"和"问题定义清晰度"——它们是管道的结构性约束,而非可临时添加的插件。当AI让代码变得充裕,这些原本"软"的能力突然成为硬瓶颈。

下一步:测量你的吸收容量

Zendesk的观察值得被认真对待,不是因为它是终极答案,而是因为它提供了一个可操作的诊断框架。如果你所在的团队正在使用GitHub Copilot、Cursor或其他AI编程工具,可以立即做一件事:拉取最近三个月的交付数据,计算从"代码提交"到"生产部署"的各阶段耗时分布。

如果编码时间的占比下降,但评审或测试时间的占比上升,你的组织已经在经历"吸收容量"约束。这时候,继续采购更强大的AI生成工具可能是错误的方向——你需要的是更智能的评审辅助、更自动化的集成测试、或者更结构化的需求工程。

代码过剩的时代,竞争优势不再来自谁能生产更多,而来自谁能更快、更准地把生产转化为价值。Zendesk的提醒是及时的:当技术变革重塑约束条件,组织的适应能力才是真正的瓶颈。