凌晨两点,你盯着一段分页逻辑发愁。代码跑通了,但没人知道为什么用游标而非偏移量。Git记录写着"修复分页",再往前是"实现分页"——考古到此结束。
这是AI编程的隐藏成本:知识链断裂。原作者没留下痕迹,后来者也找不到来路。
一个开发者的反击
作者用Claude Code做了个实验。输入poc.py trace src/utils/paginator.py,30秒后得到一张溯源图:
【高置信度来源】GitHub用户@tannerlinsley的游标分页讨论,链接直达。核心洞察:实时更新场景下游标优于偏移量。
【知识缺口】错误重试策略、并发写入处理——AI自行决定,无人工来源。
关键发现:bug就藏在"无人工来源"那部分。AI做了选择,但没人审查。
这个工具叫proof-of-contribution,定位不是强制规范,而是考古优先。
为什么溯源比注释更重要
传统做法是在文件顶部加注释,说明参考了某篇Stack Overflow答案。问题是:没人读。
新方案是结构化、可查询、可执行的记录,与代码并存。每次AI生成代码时,Claude自动附加"贡献证明块":
——灵感来源(具体讨论、RFC、个人博客)
——AI合成部分(明确标注无人工来源)
——置信度评级
这让两个群体受益:用代码的人知道该信什么,产知识的人知道自己的工作被看见。
被忽视的激励坍塌
作者提到一个没人测量的成本:贡献者消失。
2019年,有人在Stack Overflow花一周调试,写下并发写入失败的完整分析。AI吸收了它,新代码里没有任何引用。原作者收不到信号,下次遇到类似问题,还会不会写?
GitHub讨论区同理。两小时的深度技术辩论,被AI总结成一行实现,原帖沉入海底。维护详细讨论的动力,在规模化中逐渐蒸发。
这不是哲学层面的" nothing",是具体的引用缺失、溯源不能、反馈归零。
技术债的新形态
AI加速编码的同时,也在制造新型债务:不可审计的决策。
作者的工具暴露了一个模式——AI倾向于"合理但未经核实"的选择。并发处理策略看起来对,但没有人类验证过边界条件。六个月后,这就是生产事故的温床。
溯源机制的价值在于:把"AI自行决定"转化为"待审查清单"。不是阻止使用AI,而是明确风险所在。
数据收束
这个实验目前仍是个人项目,但指向一个可量化的趋势:GitHub 2024年报告显示,AI辅助编码已覆盖全球46%的代码提交,而代码注释率下降至2018年以来最低。知识沉淀速度与代码产出速度之间的剪刀差,正在扩大。
工具本身或许不会成为主流,但它提出的追问会留下来——当AI成为主要生产者,我们用什么机制保证人类知识的连续性?
热门跟贴