2024年,全球开发者向GitHub提交了超过10亿行AI辅助代码。当大多数团队还在争论"该不该用"时,Linux内核团队已经拍板:用可以,但锅你背。
「签字即负责」—— 一条规则改写开源协作逻辑
Linux内核文档最近更新了一则关于编程助手的使用规范。文件很短,核心就一句话:AI生成的代码可以提交,但人类开发者必须以自己的名义签署开发者原创证书(DCO)。
这意味着什么?你让Claude Code写了个驱动补丁,提交时签的是你的名字。如果这段代码把文件系统搞崩了,Linus Torvalds的邮件会直接发到你收件箱,而不是Anthropic的客服。
文档明确禁止AI代理添加Signed-off-by标签。只有人类能合法认证DCO,这是Linux社区运行30年的铁律。AI在这里的身份被精准定位:工具,而非责任主体。
GNOME项目上个月刚走了另一条路——直接收紧扩展指南,要求开发者披露AI使用情况。两个顶级开源项目,两种截然不同的风险管控思路。
为什么Linux敢这么干?
内核开发的特殊性在于它的审查密度。每一行代码都要经过邮件列表的公开审阅,核心维护者会逐行追问逻辑。这种环境下,AI代码的"幻觉"问题会被快速暴露。
但文档的潜台词更狠:它把AI代码的质量门槛,直接拉到了和人类代码同一水平线。没有"这是AI写的所以宽容点"的借口,也没有"我不知道它怎么工作的"的退路。
一位长期参与内核维护的开发者曾在邮件列表里吐槽:"我们见过太多'能跑就行'的提交。现在加上AI,速度更快了,烂代码也更多了。"新规则的本质,是用法律责任倒逼提交前的审慎。
这种设计其实暗合Linux的底层哲学。内核从来不是民主制,是精英制。Torvalds本人说过:"我不在乎你是谁,我只在乎你的代码。"AI在这个体系里,连"谁"都算不上,只是你键盘的延伸。
实操层面的三个隐形门槛
文档列出的合规条件看似简单,执行起来全是坑。
第一,许可证适配。AI训练数据的版权黑洞至今没解,如果模型输出的代码片段和某段GPL代码高度相似,提交者要证明这是独立创作还是变相抄袭。内核使用的GPL-2.0对衍生作品定义极严,这个雷区目前没人踩过,但迟早会炸。
第二,正确归因。文档要求"attribute the bot correctly",但没说具体格式。是注释里写"Generated by GPT-4"?还是提交信息里标注?不同维护者的接受度可能天差地别。这种模糊性本身就是风险。
第三,也是最要命的:理解成本。文档强调提交者必须理解AI代码的功能,但现代大模型的输出往往超出人类即时 comprehension 的范围。一个复杂的内存管理优化,你可能需要花数小时才能确认它没有引入竞态条件——那和重写一遍有什么区别?
内核维护者Greg Kroah-Hartman去年在Linux基金会峰会上提到一个案例:某开发者用AI生成了一套设备驱动,代码风格完美,但完全没处理热插拔场景。"测试都没跑全就提交了,"他说,"这种'完美垃圾'比手写烂代码更难发现。"
行业镜像:其他项目怎么选
Linux的"你签你负责"模式,和近期其他技术组织的决策形成有趣对照。
GNOME选择前置审查,要求扩展开发者明确披露AI使用。这种思路把风险拦在门外,但代价是流程变重,小开发者可能直接放弃。
微软的GitHub Copilot团队则走另一条路:默认集成,问题由用户和原始版权方自行解决。这种"平台中立"姿态,本质是风险外包。
Linux的解法最像传统工程行业的分包责任制。总包方(提交者)对最终交付物负全责,不管混凝土是人工搅拌还是机器灌注。这种模式下,AI不会降低入行门槛,反而提高了——因为你得有能力判断机器产出是否合格。
一个细节值得玩味:文档发布在GitHub的Linux项目页面,而非传统邮件列表。这是内核社区罕见的"GitHub优先"操作,或许暗示着维护团队对AI时代开发者习惯的妥协——哪怕只是形式上的。
谁会被这条规则改变?
对内核老手,这不过是把既成事实写进文档。他们早就明白,Signed-off-by不是签名,是抵押品。
真正受影响的是两类人:一是想用AI快速刷贡献记录的新手,二是被公司派来"参与开源"的工程师。前者会发现,AI加速的代码产出,会被同等加速的审查压力抵消;后者则面临一个尴尬处境——老板要"AI转型成果",但内核社区要个人信用背书。
企业端的反应已经开始分化。某芯片厂商的内核团队负责人告诉我,他们内部正在评估是否禁用AI辅助提交。"不是怕代码烂,是怕追责时说不清,"他说,"如果AI代码引发安全漏洞,谁去跟法务解释?"
这种焦虑指向一个更深层的问题:当AI成为开发标配,"个人责任"的边界在哪里?Linux内核的答案是清晰且冷酷的——就在你的签名后面,没有例外。
文档最后一段的措辞很有意思。它没有警告,没有劝诫,只是陈述:"The human submitter is responsible for..." 这种克制的法律文本风格,和Torvalds本人在邮件列表里喷人的形象形成奇妙反差。
或许这才是开源治理的成熟态:情绪留给社区互动,规则留给白纸黑字。AI代码能不能进内核?能。但那个Signed-off-by标签,你得想好了再敲。
如果你的团队明天开始用AI写内核补丁,你们会要求提交者额外做代码溯源审计吗,还是直接信任现有的review流程?
热门跟贴