4月24日,GitHub的隐私政策正式生效。你的Copilot对话记录、甚至私有仓库的代码,默认进入AI训练池。同一周,Copilot被曝向150万+拉取请求(Pull Request)注入广告。开发者社区里,有人卸载,有人写脚本批量退出,更多人盯着设置页面发呆——退出按钮藏得比游戏彩蛋还深。
HackerNoon的投票结果很有意思:四个选项差距不到8%。24%的人接受现实,理由是"反正别人也会这么干";23%选择退出并宣布信任崩塌;20%退出但继续使用;16%觉得无所谓;还有16%完全支持。没有压倒性答案,这才是最刺耳的信号。
退出机制:一场用户耐力测试
GitHub确实给了退出通道,但路径设计堪称产品经理的反面教材。你需要登录→Settings→Copilot→Data Sharing,然后关掉两个独立开关。一位开发者吐槽:"我找这个页面花了11分钟,够我写完一个函数了。"
更微妙的是时间差。政策4月24日生效,但GitHub提前数周在博客角落发了通知。没订阅邮件?没刷到那条推文?你的数据已经默认上车了。这种"通知了等于同意了"的逻辑,正是欧盟数字服务法重点打击的对象。
Copilot的广告植入事件则让事情更复杂。150万个拉取请求里突然出现推广链接,开发者们截图疯传。有人称之为"enshittification"(平台衰败化)的教科书案例——先靠免费/低价吸引用户,再逐步压榨变现。GitHub后来撤回了这批广告,但信任损耗已经记账。
训练数据:你的代码值多少钱
私有仓库代码进训练集,这是争议核心。GitHub的说明文档里,"interaction data"(交互数据)是个模糊的大筐:你输入的提示词、Copilot生成的建议、你的接受/拒绝动作,都可能被装进去。
一位非开发者在评论区写道:「虽然我不喜欢所有东西都被喂给AI,但这是不可避免的。」这条高赞回复下面,争吵了47楼。支持者认为这是技术进步的必要成本;反对者追问:如果我的代码包含商业机密呢?如果我在写未开源的竞品呢?
法律层面,美国版权局的最新指南(2025年3月)仍然回避了AI训练是否构成"合理使用"的核心问题。欧盟AI法案要求高风险系统披露训练数据来源,但Copilot是否算"高风险",律师们还在扯皮。监管真空期,用户只能用脚投票。
行业格局:Anthropic的91%意味着什么
Polymarket的预测市场给出了另一个维度的数据。到4月底,Anthropic拥有最佳编程AI模型的概率被押注到91%。OpenAI只有5%,DeepSeek 4%,其余公司合计不到1%。
这个数字值得拆解。预测市场的参与者用真金白银下注,比问卷更诚实。91%不是技术评分,是资本和开发者的集体预期。Claude 3.7 Sonnet在SWE-bench编码基准上的得分确实领先,但更重要的是,Anthropic在"不恶心用户"这件事上暂时没翻车。
Kalshi的年终预测更均衡些:Anthropic 58%,Google 25%,OpenAI 10.7%。时间拉长,变数增多。Google有Gemini的代码能力和YouTube的视频理解,OpenAI有GPT-5的牌没打完,DeepSeek的成本优势在价格战里很扎眼。
但GitHub的处境很尴尬。它背靠微软,Copilot底层调用的是OpenAI模型,而OpenAI在编程AI赛道上正被Anthropic压制。用用户数据自研模型?这是追赶的捷径,也是信任的高利贷。
开发者的真实成本
投票分布的撕裂感,本质上反映了开发者群体的分层。24%的"躺平派"大概率在大厂工作,公司早已把代码托管在内部GitHub Enterprise,政策影响有限。23%的"愤怒退出派"多是独立开发者或小团队,私有仓库就是全部身家。
一位参与投票的开发者私下说,他花了两个晚上迁移5个私有仓库到GitLab,然后发现GitLab也在更新类似的AI训练条款。"我们在玩打地鼠,"他说,"每个平台都在等别人先被骂,然后跟进。"
工具链的锁定效应让迁移成本被低估。CI/CD配置、Issue历史、Wiki文档、协作者权限——这些不会随git clone一起搬走。退出GitHub是技术决策,更是项目管理灾难。20%选择退出但留下的人,算过这笔账。
数据所有权的问题还在发酵。GitHub声称会对数据进行"去标识化"处理,但代码的语法结构、变量命名风格、注释习惯,本身就是指纹。2024年的一项研究显示,仅从代码风格就能以78%的准确率识别开发者身份。"去标识化"在代码场景下是不是皇帝的新衣?
广告植入事件后续:GitHub产品负责人出面道歉,承诺"更透明的沟通"。但开发者社区里,有人开始监控Copilot的网络请求,用抓包工具检查每次交互上传了什么。信任一旦进入审计模式,修复成本指数级上升。
4月24日的截止日期已过。你的设置页面,那两个开关现在是什么状态?
热门跟贴