你可能以为,用公共资金开发的软件,理所当然应该公开透明。但英国国家医疗服务体系(NHS England)最近做了一件反常识的事:把所有自己写的软件从公共视野里撤了下来,理由是怕AI黑客。

这个决定的截止日期是5月11日。在此之前,NHS England生产的软件一直是开源的,放在GitHub上供任何人查看。原因很简单——花的是纳税人的钱,成果理应共享,其他机构可以在此基础上改进,避免重复造轮子。但现在,新政策要求"所有源代码仓库默认设为私有",公开必须经过正式批准。

打开网易新闻 查看精彩图片

导火索是一个叫Mythos的AI。上个月,这个由Anthropic公司开发的系统被广泛报道,称其能够发现几乎任何软件中的漏洞,可能让黑客有机可乘。NHS England的新指导文件明确点名Mythos:"公共仓库显著增加了源代码、架构决策、配置细节和上下文信息被意外披露的风险,尤其是在AI模型具备大规模代码摄取、推理和分析能力的快速发展背景下。"

但事情真的有这么严重吗?英国政府自己支持的AI安全研究所(AISI)调查后的结论,和NHS England的紧张姿态形成了有趣的对比。他们发现,Mythos的攻击能力其实有限——只能对付"小型、防御薄弱、存在漏洞的企业系统",没有证据表明真正安全的软件或网络会面临风险。

这就引出了一个值得拆解的问题:当面对新技术威胁时,机构的反应是恰到好处,还是过度防御?

从NHS England的角度看,他们的顾虑并非完全凭空捏造。医疗系统的数据敏感性不言而喻,病历、诊疗记录、财务信息,任何泄露都可能造成严重后果。Mythos这类AI的出现,确实改变了安全博弈的格局。传统上,开源社区有一种"众目睽睽之下,漏洞无处藏身"的信念——代码公开后,更多眼睛盯着,问题反而更容易被发现和修复。但AI的能力在于规模:它可以同时"阅读"海量代码,以人类无法企及的速度识别模式、推测漏洞。这种不对称性,让开源的安全逻辑受到了挑战。

然而,安全专家们的批评同样有力。多位专家指出,NHS England的举措"不必要且适得其反"。这里的"适得其反"值得细品。开源软件的一个隐性价值在于信任建立——当代码公开时,外部研究者可以独立验证其安全性,用户也能确认系统没有暗藏后门。反过来,把代码锁起来,并不意味着它变得更安全,只是让问题更难被发现。

英国邮政系统的Horizon IT丑闻就是一个惨痛教训。那套系统的代码如果当初是公开的,导致数百名邮局局长被错误指控盗窃和欺诈的软件缺陷,或许不会隐藏多年。透明度有时是最好的纠错机制。

更深层的张力在于组织惯性。NHS England的新政策与自身的服务标准直接冲突——那份标准明确要求员工将软件开源,理由是"公共服务用公共资金建设,除非有充分理由,否则其基础代码应供他人复用和改进"。现在,同一份机构文件被另一份文件推翻,而推翻的理由是一份AI安全威胁评估,与政府下属研究机构的结论相左。

这种矛盾暴露了技术治理中的一个常见困境:当风险评估权分散在不同部门时,谁的声音占主导?是直接接触技术细节的安全团队,还是独立研究机构的学术判断?NHS England选择了前者,但代价是背离了长期奉行的开放原则。

还有一个被忽视的维度:开源生态的协作价值。NHS England的软件被其他机构复用和改进,这种网络效应一旦切断,损失难以量化。英国政府在数字化服务上的投入本就面临效率质疑,此时增加协作摩擦,时机颇为微妙。

当然,完全否定NHS England的谨慎也不公平。AI安全研究是一个快速演进的领域,今天的"有限能力"不等于明天的威胁水平。Mythos或许确实只能攻击薄弱系统,但医疗IT系统的防御水平是否 uniformly 坚固?不同医院、不同承包商的实施质量参差不齐,"默认私有"或许是一种务实的风险规避。

问题在于,这种规避是否经过了充分的成本效益分析?指导文件中提到,公开代码需要"明确且例外的需求"和"正式批准",这意味着决策权上收,灵活性下降。对于习惯了敏捷开发的团队来说,这可能意味着创新节奏的放缓。

更值得追问的是,如果Mythos级别的AI威胁真实存在,仅仅隐藏代码是否足够?真正的安全加固需要代码审计、渗透测试、架构改进等多层措施。把仓库设为私有,更像是一种"眼不见为净"的心理安慰,而非系统性的安全升级。

这场争论的最终裁决,或许要等到5月11日之后才能看清。届时,NHS England的代码库将完成私有化迁移,而Mythos的能力边界也会随着更多研究而明晰。一个可能的结果是:威胁被证实夸大,开放原则悄然恢复;另一种可能是,新的AI攻击案例浮现,私有化决策被追认为先见之明。

但无论哪种结局,这个案例都提供了一个观察窗口:当机构面对不确定的技术威胁时,如何在安全与开放之间寻找平衡点。NHS England的选择是偏向封闭一端,但代价是牺牲了透明度带来的信任红利和协作效率。这个权衡是否值得,答案或许不在技术层面,而在治理哲学——你更担心可见的风险,还是不可见的代价?

对于普通读者来说,这件事还有一个贴近生活的启示:我们日常使用的公共服务软件,其安全逻辑正在经历深刻变化。AI不再只是聊天机器人或图像生成器,它正在进入基础设施的安全评估领域,重新定义什么是"足够安全"。下次当你看到某个政府系统要求更新隐私政策时,背后可能就有类似的博弈在发生。

科学界目前还没定论的是:AI辅助的攻击能力,究竟会在多大程度上改变开源软件的安全经济学。NHS England的实验,无论成败,都会成为这个辩论的重要数据点。