打开网易新闻 查看精彩图片

全球5000万行代码的底座,刚刚给AI辅助编程定了调子。

Linux内核维护者在GitHub页面正式发布新规:生成式AI可以参与开发,但人类开发者必须对最终代码负全责。这不是建议,是硬性要求——从许可证合规到安全漏洞,锅全是人的。

AI能进厨房,但不能掌勺

AI能进厨房,但不能掌勺

新规的核心逻辑把AI工具定位成"高级自动补全",而非独立贡献者。微软Copilot这类助手被允许使用,但AI代理(AI Agent)被明令禁止签署代码。只有人类能认证开发者原创声明(Developer Certificate of Origin,DCO),这个门槛没有松动。

代码层面也有硬约束:输出必须符合GPL-2.0-only许可证,必须包含完整的SPDX标识符。Linux基金会用技术细节划出了红线——AI可以帮你写,但你得懂它写了什么。

「当AI工具参与内核开发时,适当归因有助于追踪AI在开发过程中不断演变的角色。」 GitHub页面的原话透着一股工程务实。新增的标签不是荣誉勋章,是责任追踪的审计线索。

标签系统:透明不是选项,是义务

标签系统:透明不是选项,是义务

新规引入了「Assisted-by」标签机制。使用AI辅助的提交必须披露模型类型、工具版本。这个设计直接回应了过去两年的社区焦虑:代码库里到底有多少是机器写的?

Linus Torvalds的态度转变值得玩味。这位以毒舌著称的创始人此前曾驳斥全面禁止AI的提议,认为不现实。但"不禁止"不等于"放任"——最终方案把 liability(法律责任)死死钉在人类贡献者身上。

安全漏洞是你的,版权纠纷是你的,代码质量还是你的。AI在这里的角色被压缩到极限:一个不能背锅的助手。

为什么是Linux先动手

为什么是Linux先动手

这个决定的行业权重极高。Linux内核是地球上最复杂的协作工程之一,2700万行代码、2000+企业贡献者、每年8万次提交。它的规则往往成为开源世界的默认模板。

过去18个月,社区内部争论持续发酵。一派主张彻底禁止AI代码,担心"AI slop"(低质量AI生成内容)污染代码库;另一派认为抵制技术进步徒劳无功。最终落地的方案是典型的Torvalds式妥协:承认现实,但加锁。

「AI slop」不被接受——这个表述在新规中被明确写出。Linux社区用了一个粗俗但精准的词,划清了辅助与滥用的界限。

行业连锁反应已经开始

行业连锁反应已经开始

Linux成为首批为AI编程建立边界的主流开源项目,且影响力无出其右。GitHub、GitLab等平台正在观察;Google、Meta等企业的开源办公室也在评估跟进可能。

更深远的影响在企业合规层面。新规实际上给公司法务部门递了一把尺子:员工用Copilot写的代码,责任主体清晰了——不是微软,是用代码的人。

这种责任分配模式可能重塑AI编程工具的商业条款。如果Linux的模式扩散,Copilot等产品的免责声明或将面临新一轮谈判。

代码提交页的「Assisted-by」标签,会成为未来考古学家识别"AI时代"的标记层吗?还是说,当模型能力继续进化,这条人为划定的边界终将模糊?