GitHub悄悄更新隐私条款,要把你的代码喂给AI模型。HackerNoon的投票显示:82%的人选了"不在乎"——这个数字比任何AI生成的内容都更值得玩味。
事件线:从条款更新到舆论沉默
4月初,GitHub在隐私声明中新增条款:用户数据可用于"机器学习模型训练"。没有弹窗通知,没有邮件提醒,只有一份藏在设置深处的更新日志。
技术社区的反应却出人意料地冷淡。HackerNoon的3项技术投票中,"GitHub用户数据训练AI"关注度垫底,远低于"AI内容是否该征税"和"远程工作薪资公平性"。
「开发者对自己的代码被训练已经麻木了」,一位参与投票的用户评论道。Copilot上线三年,Stack Overflow流量腰斩,开源贡献者的抗议从未停止——但82%的不在乎,说明习惯已成定局。
为什么"不在乎"反而危险
这不是第一次平台单方面改写数据使用规则。2023年Stack Overflow与OpenAI合作时,版主集体罢工;2024年Reddit API收费引发大规模抗议。GitHub的静默策略显然更成功。
关键差异在于:代码的法律属性模糊。文字、图片有明确的著作权,但开源协议的传染性让"谁拥有训练权"成为灰色地带。GitHub的条款更新,本质是测试这个模糊地带的边界。
更深层的问题是数据定价权的丧失。当82%的用户放弃议价,平台获得的是零成本的高质量语料——这些语料最终转化为每月10美元的Copilot订阅,以及微软与OpenAI的数十亿美元合作。
AI税争议:被忽视的另一端
同一份投票中,"AI生成内容是否该征不同税率"获得更高热度。这构成有趣的镜像:开发者不介意自己的产出被AI吞噬,却关心AI产出的分配规则。
欧盟的AI法案尝试回应这个问题,要求高风险AI系统披露训练数据来源。但执行层面,"来源披露"与"收益分享"之间隔着整个旧有的知识产权体系。GitHub用户的"不在乎",某种程度上加速了这种不对称——数据贡献者沉默,技术受益者发声。
当训练数据的价值无法被个体主张,对AI产出征税的讨论就成了无根之木。没有上游的定价,下游的分配只是重新切蛋糕。
开放提问
GitHub的条款更新会复制到更多平台吗?当"默认同意"成为行业标准,开发者是否终将面对一个选择:退出公共代码托管,还是接受自己的劳动成为AI的免费燃料——而大多数人已经用行动给出了答案。
热门跟贴