打开网易新闻 查看精彩图片

Stack Overflow的月提问量从10.8万跌到3862,只用了两年。78%的崩塌幅度,比任何一家被颠覆的科技公司都更惨烈。

所有人都说AI杀死了它。这只是一半真相。真正的病灶是:每次开发者让Claude或ChatGPT写代码时,塑造答案的人类知识就消失了——没有引用,没有署名,没有反馈。

GitHub上那个花了两小时论证"游标分页为何优于偏移量"的讨论帖。Stack Overflow 2019年那篇经过一周调试才写就的并发写入故障分析。AI吃掉了全部,原创者颗粒无收。

贡献者停止更新。Stack Overflow不是死于质量下滑,而是死于价值被榨取后,维持人类贡献的反馈循环彻底断裂。

一个工具试图修复这个循环

一个工具试图修复这个循环

proof-of-contribution是Claude Code的一个技能插件,核心逻辑简单粗暴:把AI生成的每一行代码,强制绑定到启发它的人类知识源头。同时标出AI"凭空捏造"的部分——那些没有人类背书的决策。

它由两部分组成:Claude端的技能插件,本地运行的CLI工具。前者负责在生成代码时追加结构化溯源块,后者提供静态分析、追溯链条、CI集成。

安装只需要五分钟。克隆仓库,配置Claude技能,初始化项目目录。作者Dann Nwaneri把完整源码放在了GitHub。

溯源块(Provenance Blocks)是这套系统的锚点。每次Claude生成代码后,会自动追加一个结构化注释块,列出所有启发它的人类来源,并标记"无溯源合成"的部分。这不是可选的元数据,是强制嵌入的审计痕迹。

Knowledge Gap:在事故变成事故之前

Knowledge Gap:在事故变成事故之前

AI写代码时最危险的状态,不是出错,而是"看起来对但不知道为何对"。proof-of-contribution把这种状态显性化为Knowledge Gap——代码中缺乏人类引用的部分。

这些Gap在生成阶段就被标记,而不是等到生产环境崩溃后才被追溯。开发者可以选择立即填补(添加人工审核注释),或者接受风险并记录理由。

import-spec命令把这套机制与spec-writer工具打通。在AI动手写代码之前,先从需求文档的"假设列表"里预置Knowledge Gap。AI生成代码时,必须逐一回应这些预设的质疑点。

换句话说,spec里的每一条"我们假设X成立",都会变成代码里必须被引用或显式标记的审计项。

打开网易新闻 查看精彩图片

静态分析:零API调用的防线

静态分析:零API调用的防线

poc.py verify是这套系统最狠的设计。它用Python的AST(抽象语法树)静态分析代码结构,交叉比对溯源块里的声明与实际代码是否一致。不需要调用任何大模型API,本地运行,秒级反馈。

退出码0表示干净,1表示发现Gap。直接接入CI流水线,PR阶段自动拦截。

GitHub Action是可选的强化层。团队可以配置为:禁止合并任何缺少溯源块的PR。这对需要合规审计的金融、医疗代码库尤其有效。

trace命令能在30秒内展示任意文件的完整人类归因链条。从当前代码回溯到最初的Stack Overflow答案、GitHub讨论、或者内部Wiki页面。每一跳都带时间戳和作者身份。

谁该用?谁不该用?

谁该用?谁不该用?

这套工具的目标用户很明确:正在用Claude Code或类似AI编程助手的中型团队,代码库复杂度已经超出个人记忆边界,但又没到需要全职架构文档工程师的程度。

个人开发者可能觉得过重。三五个人的初创团队,口头知识传递还没断裂,强行上溯源块反而是 friction。但超过十人、代码生命周期超过两年的团队,反馈循环的断裂几乎是必然的。

技术门槛被刻意压低。命令行基础、Python环境、Claude Code订阅——除此之外不需要机器学习背景或静态分析经验。AST的操作被封装在verify命令内部,用户只关心退出码。

一个未被回答的问题

一个未被回答的问题

proof-of-contribution修复了反馈循环的一半:让贡献者被看见。但它没解决另一半:贡献者的动力从何而来?

Stack Overflow的崩塌不只是因为缺乏引用,而是因为贡献本身失去了社会回报。声望值、同行认可、职业信号——这些被AI中介切断后,溯源块里的署名是否足够重建动力?

如果AI生成的代码99%正确,人类贡献者沦为"错误修正员",这种角色降级能否被溯源 visibility 抵消?

Nwaneri的工具给出了技术方案。但技术方案能否对抗结构性激励的坍塌——这个问题,留给了第一个在PR里看到自己被引用的开发者来回答。