打开网易新闻 查看精彩图片

开发速度终于突破了,但整个行业站在原地,不知道拿这个速度怎么办。

这是Hannah Foxwell在QCon伦敦2026上的开场白。她没讲技术细节,没拆解代理编码(agentic coding,即AI自主完成编码任务的工作模式)的架构,而是直接抛出一个问题:当AI把代码写得又快又好,人类该干什么?

Foxwell的身份有点意思——AI for the Rest of Us和BIMP.ai的创始人,但她在台上说:「这是关于AI的演讲,但我完全不打算聊代理本身。我假设它们来了,它们已经在这儿了,我要聊的是人类,以及团队如何调整来适应这个行业正在发生的巨变。」

从半年一版到一天百次:速度来了,组织能力没跟上

从半年一版到一天百次:速度来了,组织能力没跟上

Foxwell用个人经历串起了一场行业变迁。早期她在大型机团队,半年才能发一次版;后来进入持续交付(continuous delivery,即代码变更可快速、安全部署到生产环境的工程实践)时代,速度指数级提升。

代理编码被她定义为「又一步阶跃变化」,但关键区别在于——它制造的是全新的组织压力,而非旧压力的线性延伸。

她简要引用了Steve Yegge的开发者进化八阶段模型,但没展开。这个选择本身就有态度:当行业还在争论技术实现时,她直接把镜头对准了人的处境。

代理编码的隐藏成本:不是算力,是协调

代理编码的隐藏成本:不是算力,是协调

演讲的核心论点藏在一句看似平淡的话里:速度本身不产生价值,价值产生于人类如何重新设计协作方式。

打开网易新闻 查看精彩图片

Foxwell没有给出一二三的清单,而是反复暗示一个悖论——AI让单点产出暴涨,但团队层面的决策瓶颈、沟通摩擦、目标对齐反而可能恶化。她用了个类比:给马车换火箭发动机,车夫不会因此变成宇航员。

具体表现上,她提到几个正在发生的信号:

代码审查(code review,即团队成员互相检查代码变更的工程实践)的逻辑需要重写。当AI生成的提交频率从每天几次变成几十次,人工逐行检查变成物理上不可能的事。团队必须重新界定「审查」的边界——是审逻辑、审意图,还是审AI的「人格一致性」?

「完成」的定义在漂移。传统开发中,工程师写代码、测试、部署,有清晰的里程碑。代理编码模糊了这条线:人类提出需求,AI执行,但「谁对结果负责」变得暧昧。Foxwell没给答案,只指出这个现象正在制造组织焦虑。

技能栈的隐性转移。她观察到,工程师的时间正在从「写」转向「说」——不是写代码,而是写提示词(prompt,即向AI下达指令的自然语言描述)、调上下文、做结果仲裁。这种转移还没被正式纳入职业成长体系。

「人类工作」的重新定价

「人类工作」的重新定价

Foxwell最有力的观察是关于价值判断的。当AI接管了编码的执行层,人类被迫暴露一个长期被回避的问题:我们到底认为什么工作更有价值?

她没直接说,但现场听众的反应被记录下来——当提到「工程师可能花更多时间在会议里对齐需求,而不是在IDE里」时,台下有明显的骚动。这种骚动本身就是数据:行业还没准备好接受这个版本的未来。

她引用了一个未具名的团队案例(来自演讲前的调研):某公司将代理编码工具全面铺开三个月后,代码产出量上升340%,但产品迭代速度只提升了20%。差距去哪了?评审队列爆炸、回滚次数增加、技术债(technical debt,即为了短期速度而妥协设计质量所累积的维护成本)识别滞后。

打开网易新闻 查看精彩图片

这个案例的微妙之处在于,它没有否定代理编码,而是指出了部署节奏与组织能力的错配。Foxwell的措辞很谨慎:「这不是工具的失败,是我们对『速度』的理解过于狭隘。」

工程师的新角色:从生产者到策展人

工程师的新角色:从生产者到策展人

演讲后半段,Foxwell尝试勾勒一种可能的适应路径。她借用了博物馆策展人的隐喻:未来的工程师可能不再亲手制作展品,而是决定什么值得被展示、如何编排叙事、如何引导观众(用户)的体验。

具体技能上,她强调了三种能力:

意图翻译。把模糊的业务需求转化为AI可执行的上下文,这要求工程师深入理解领域,而非仅掌握语法。

质量仲裁。在AI输出的多个方案中做出选择,并承担选择后果。这涉及风险评估、伦理判断、长期维护成本的预判。

系统叙事。向非技术利益相关者解释AI决策的逻辑,建立信任。Foxwell特别指出,当代码不再完全由人类编写,「可解释性」从技术指标变成了组织政治问题。

她没说的是:这些能力在传统工程师评价体系里要么权重很低,要么根本没有考核标准。

演讲结束前,Foxwell回到开场的问题。她没有总结答案,而是读了一条会前收集的匿名反馈:「我现在每天省出三小时不用写代码,但我不确定这三小时该干什么,这让我比加班更焦虑。」

这条反馈被留在台上,没有点评,没有升华。问题悬在那里——当AI把最显性的工作拿走,人类准备好定义自己的新价值了吗?