开源软件最骄傲的"自由",正在被另一种自由反噬。有人用AI把别人的代码"重写"一遍,抹掉原作者的名字,换上企业喜欢的许可证——然后卖钱。

这不是地下黑客的恶作剧。一家名为Malus.sh(发音同"malice",恶意)的LLC公司,有真实的付费客户。它的商业模式建立在开源社区最敏感的神经上:版权归属。

打开网易新闻 查看精彩图片

「干净房间」的古老套路,AI让它工业化

技术圈有个经典操作叫"clean room"(干净房间)设计。IBM时代,竞争对手用两组人破解它的电脑:A组研究规格,B组从零重写代码,且B组绝对不能看IBM的原始代码。HBO剧集《奔腾年代》拍过这段。

这个方法的法律逻辑很清晰:B组没接触过原代码,写出的东西就不算抄袭。

这家公司将这套流程塞进了AI。它的"专有AI机器人"分析开源项目的功能和行为,然后独立重写。网站标语毫不遮掩:「终于摆脱开源许可证义务」「无需署名,无需传染式许可,毫无问题」。

联合创始人Mike Nolan的身份很微妙——他是联合国开源软件政治经济学研究员。他对404 Media说:「它确实能用。」如果这只是讽刺,「那些觉得自己太特别、太聪明、永远不会被裁员或经济问题困扰的开源技术工作者,会不屑一顾。」

这句话的潜台词很锋利:开源开发者长期相信道德约束和社区声誉能保护自己,但这家公司假设这套规则正在失效。

真实案例:chardet风波已经发生过

这家公司的产品可能是半开玩笑,但它指向的现象已经落地。

上个月,Python社区流行的字符编码检测库chardet出现了「全新版本」。Anthropic的Claude Code工具从零重写了这个库,采用MIT许可证——比原版的LGPL宽松得多,且完全不提及原作者。

开发者社区炸了。这不是fork(分支),不是改进,是功能等价的替代物,抹掉了所有历史贡献痕迹。

「干净房间」复制的争议核心在这里:技术上是新代码,知识上完全依赖原作的探索成果。原作者解决的问题、踩过的坑、积累的理解,被AI工具消化后吐出「干净」的实现,法律上却与原作无关。

这家服务把这种操作商品化了。它不只是工具,是服务——客户指定目标项目,它交付「企业友好」的替代品。

为什么偏偏是开源?

开源许可证的本质是版权的有条件让渡。作者保留版权,但允许他人在特定条件下使用:GPL要求衍生作品同样开源(copyleft),MIT只要求保留版权声明,Apache额外涉及专利授权。

这家公司的商业模式瞄准了这个结构的缝隙:许可证约束的是「衍生作品」,但如果AI生成的代码在法律上被认定为「独立创作」,约束就不存在。

这取决于法院如何认定AI训练数据的「接触」边界。目前美国版权局的态度是:纯AI生成物无人类作者,不享版权;但人类指导下的AI输出,版权归属模糊。这家公司的操作更激进——它不在乎新代码有没有版权,它要的是旧代码的许可证不适用于新代码。

Nolan的联合国研究背景让这个项目的讽刺意味更浓。开源软件的政治经济学长期假设:贡献者获得声誉,企业获得免费基础设施,社会获得技术民主化。这家公司问的是:如果声誉可以被AI洗白,这个等式还成立吗?

企业客户的真实需求

网站文案「企业友好许可证」不是空话。GPL的copyleft条款让很多大公司法务部门头疼——使用GPL代码可能被迫开源整个产品。MIT/Apache的宽松许可更受欢迎,但前提是能找到功能等价的替代品。

传统上,企业要么自己重写(成本高),要么谈判购买商业授权(看原作者心情)。这家公司提供了第三条路:用AI批量生产「干净」替代品。

这解释了为什么它有真实客户。不是每个企业都愿意公开承认使用这种服务,但需求客观存在:降低合规风险,减少对外部贡献者的依赖,把技术栈的控制权收归内部。

开源社区的一个长期焦虑是「剥削」——大企业免费使用开源基础设施却不回馈。这家公司把这种剥削机制化了:不仅不回馈,连致谢都可以省略。

技术伦理的灰色地带

反对者会说这是盗窃。支持者会说这是合法竞争——功能本身不受版权保护,只有具体表达受保护。AI只是加速了独立实现的效率。

但「干净房间」的传统操作有人类伦理的缓冲:B组工程师知道自己在做什么,社区舆论会施压。AI抹掉了这层缓冲——它不知疲倦,不会内疚,也不会在会议上被同行侧目。

更深层的问题是:如果这种服务大规模普及,开源的激励机制会不会崩塌?当贡献者的代码随时可以被「洗白」成企业的私有资产,谁还愿意公开自己的探索成果?

这家公司可能是个讽刺作品,也可能是个认真的商业实验。但无论创始人的初衷如何,它戳破了一个幻觉:开源社区的道德秩序,在技术手段面前比想象中脆弱。