一个3人工程师小组,从拥有300名常规贡献者的开源项目分叉出来。他们的理由很直接:我们不想要大语言模型(LLM,一种基于深度学习生成文本的人工智能技术)参与代码审查。

事件起点:KeePassXC的LLM政策

打开网易新闻 查看精彩图片

2024年底,知名开源密码管理器KeePassXC发布了一项新政策,允许贡献者在开发流程中使用大语言模型。官方的说法是效率工具——用AI辅助代码审查、文档生成、漏洞分析。

打开网易新闻 查看精彩图片

但争议立刻爆发。核心质疑集中在两点:密码管理器的安全边界在哪里?当300名贡献者带着14个不同的LLM工具提交代码,审计复杂度是线性增长还是指数爆炸?

KeePassXC官方的回应堪称坦率:「如果你对大语言模型持怀疑态度,那也请对我们持怀疑态度。」这句话被分叉团队视为一种免责声明,而非解决方案。

分叉决策:冻结在2.7.10版本

新团队KeePassχ(希腊字母Chi)选择了一个精确的时间锚点——KeePassXC 2.7.10,这是LLM政策生效前的最后一个稳定版本。三名成员的背景标签是「丰富的开源维护经验」和「信息安全经验」,没有商业公司背书,没有基金会支持。

他们的产品哲学极度精简:密码管理器不需要300个贡献者,不需要AI辅助开发,只需要「健壮、安全、可信」。技术债务清单上排名第一的是Qt 6移植——一个被主流版本拖延多年的框架升级。

首个正式版本计划在2026年5月底发布。从分叉到可用,留给他们的时间窗口约18个月。

开源世界的信任重构实验

打开网易新闻 查看精彩图片

这件事的深层信号是开源治理模式的裂痕。KeePassXC的LLM政策本质上是一种规模扩张策略——用AI降低贡献门槛,用人数对冲安全风险。KeePassχ则押注相反的方向:缩小攻击面,冻结信任基准,用人力密度替代工具密度。

两种路径都没有经过长期验证。但密码管理器是一个特殊品类:用户把全部数字身份押在一个二进制文件上,任何供应链污染都是灾难性的。2024年XZ Utils后门事件(一种广泛使用的压缩库被植入恶意代码)证明,即使是小型核心团队维护的关键基础设施,也可能被长期渗透。

KeePassχ的IRC频道已经开通,沟通方式刻意复古。在Slack和Discord统治开源协作的今天,选择Libera.Chat是一种姿态声明:可追溯、去中心化、拒绝平台锁定。

为什么这值得关注

这不是反AI的浪漫主义叙事。分叉团队没有否定LLM的价值,他们只是划定了一条红线:在密钥派生和加密原语附近,人类审计的确定性优先于AI辅助的效率。

对于科技从业者,这是一个可观察的对照实验。18个月后,我们将看到两种开发哲学的交付质量对比:AI增强的大规模协作, versus 冻结基线的小团队精修。结果可能影响更多关键基础设施项目的治理选择。

最后一个问题留给读者:当你的密码管理器更新提示弹出时,你会检查贡献者名单里有没有标注「AI辅助生成」吗?