打开网易新闻 查看精彩图片

2023年有人预言SaaS泡沫将破,理由是AI能让个人开发者以极低成本复刻商业软件。当时没人信。现在Malus.sh出现了——一个能把GPL代码"洗"成MIT许可的服务,名字在拉丁语里意思是"邪恶"。

从1982年的法庭判例,到2025年的AI流水线

从1982年的法庭判例,到2025年的AI流水线

Phoenix Technologies在1982年干过一件事:一组工程师拆解IBM的BIOS并写出功能规格书,另一组从未见过原代码的工程师照规格重写。法院认定合法,因为第二组是"独立创作"。这个"净室"流程成了软件史上的经典判例。

四十三年后,这套流程被AI自动化了。Malus.sh在2025年3月亮相FOSDEM大会,演示流程极其简单:上传你的依赖清单,AI系统按你指定的许可重新实现这些开源库。GPL转MIT,AGPL转闭源,全程"合规"——因为理论上没有任何人类见过原代码。

有人在Hacker News实测:用Claude把Python的chardet库从LGPL"重写"为MIT。社区炸了,帖子收获1400多条评论。但争议焦点很快从"该不该"滑向了"拦不拦得住"。

开源捍卫者的愤怒是真实的,但技术现实更冷。

Malus.sh创始人把服务做成讽刺作品,却在演示里展示了完整功能。这种"我是认真的但我在开玩笑"的姿态,恰恰说明了问题的尴尬——工具已经存在,道德谴责无法让它消失。

打开网易新闻 查看精彩图片

SaaS的"净室"防御反而更强

SaaS的"净室"防御反而更强

大多数人盯着开源许可证讨论,却漏掉了更狠的场景。SaaS应用从不暴露源代码,但暴露行为:每个按钮点击、每个API响应、每条错误信息都是可观测的。把这些喂给大语言模型,生成规格书,再让另一个模型实现。源代码?从来没被"看见"过。

对SaaS来说,"净室"辩护甚至比传统软件更干净。没有代码仓库可供比对,没有提交历史可供追溯。只有输入输出对,而输入输出不受版权保护。

你或许会反驳:LLM训练时早就"见过"那些代码了。没错。测试显示Claude能逐字复述chardet源码,包括许可证头。训练数据污染是既定事实。

但架构可以改。双模型系统:模型A接触敏感信息并生成规格,模型B只读规格并生成代码,两者权重不共享、数据不互通。或者三模型、四模型,每增加一层,溯源难度指数级上升。混用不同基座模型、不同云服务商、不同司法管辖区——法庭上怎么证明最终输出与某段训练数据存在因果关系?

当技术架构本身成为法律防火墙,版权法开始显得像马车时代的交通规则。

高毛利生意的 commoditization 正在加速

高毛利生意的 commoditization 正在加速

打开网易新闻 查看精彩图片

2023年的预言错在时间线,错不在方向。AI编码工具让个人开发者产出逼近小团队,而"净室"自动化让合规成本趋近于零。两件事叠加,SaaS的经济护城河正在干涸。

企业向来厌恶GPL和AGPL的"传染性"——修改必须开源,衍生作品必须同许可。现在有了绕过路径:不是偷偷违反许可证,而是合法地、公开地、自动化地消除许可证本身。没有侵权,因为代码是"独立"写的;没有道德风险,因为流程符合四十年前确立的法律标准。

这对商业软件的冲击是结构性的。当复制成本从"组建工程团队+两年开发+法务审核"压缩到"上传清单+等待AI输出",边际定价权必然崩塌。不是明天,是正在发生。

Malus.sh的演示选在FOSDEM——开源运动的大本营——本身是一种挑衅。创始人在演讲里问:当"净室"从昂贵的法律流程变成便宜的API调用,copyleft(著佐权)还剩多少牙齿?台下没人能答。

更现实的追问或许是:如果SaaS厂商开始批量使用这类工具重构依赖库,开源社区的反馈循环怎么维持?bug报告、安全补丁、功能迭代——这些曾由许可证义务驱动的协作,在"干净重写"的世界里由谁买单?

有人在Hacker News评论区写道:「这不是盗窃,这是合法的替代。但结果可能比盗窃更糟——盗窃至少留下空壳让人发现,替代是连空壳都不存在。」

当技术让"合法"与"合理"彻底分叉,我们到底在保护什么?