开源 Godot 游戏引擎项目的维护者 Rémi Verschelde 近日在社交平台 Bluesky 上公开表达不满,直指越来越多完全或大部分由 AI 生成的代码提交,正在给开源项目维护者和开发者带来额外负担。 他指出,这类 PR(合并请求)往往错误和疏漏频出,导致维护者不仅要花时间审查质量低劣的代码,还不得不反复与提交者沟通、解释问题所在,严重挤占了本应用于正常开发和维护的时间。
Verschelde 在帖子中表示,在许多“显然完全由 AI 写出”的代码变更中,所提出的修改“毫无意义”,让人不得不怀疑提交流程是否做过任何实际测试,相关测试结果是否只是凭空捏造,甚至质疑提交者本人是否真正理解自己所提代码的功能与影响。 他还批评称,这类贡献所附带的说明往往异常冗长、表述混乱,不仅没有帮助澄清意图,反而加重了维护者在阅读、理解和评估上的工作量。
有关 AI 编程工具“帮倒忙”的质疑并非首次出现。早在 EA 宣布向 AI 转型后不久,这家游戏巨头内部就有开发者反映,公司管理层强推并已使用一年的 AI 工具,不仅没有提升生产力,反而在实际开发流程中消耗了更多时间和精力。 在 Blender 开发论坛上,也曾出现类似讨论:有用户提议制定一套专门的 AI 代码贡献政策,仅在严格限定的前提下接纳 AI 生成内容,例如必须明确标注来源、由提交者承担完整责任,并确保提交者真正理解代码的用途与实现方式等。
围绕生成式 AI 在软件开发中的角色与边界争议持续升温,Godot 社区的这番公开批评,再次凸显了开源项目在“拥抱新工具”与“维护代码质量”之间所面临的现实冲突。 在贡献门槛看似被 AI 降低的同时,维护者却正承受着愈加沉重的审查与沟通压力,如何在鼓励参与与保障可维护性之间取得平衡,已成为众多开源项目不得不直面的新课题。
热门跟贴