一家估值180亿美元的AI公司,一周内连续三次安全事故。这不是剧本,是Anthropic正在经历的现实。
第一颗雷:未发布模型被扒光
事情始于一个GitHub仓库。有人发现Anthropic的未发布模型——内部代号"Jaguar"——被完整上传到了公开代码库。包含模型权重、配置文件、推理代码,总计超过1.2TB。
泄露时间线指向3月15日前后。安全研究员Simon Willison在博客中确认,他下载并验证了部分文件,「结构完整,可以直接加载运行」。这意味着任何拿到数据的人,都能在本地复刻一个Anthropic级别的对话模型。
更尴尬的是泄露路径。文件元数据显示,上传者邮箱后缀为@anthropic.com——内部员工或承包商的可能性极高。Anthropic至今未公开回应此事,但GitHub记录显示仓库在3月18日被紧急删除。
第二颗雷:核心系统代码裸奔
模型泄露的余热未散,第二份"大礼"接踵而至。3月20日,同一GitHub账户上传了Anthropic内部工具链的源代码,包括:
• 模型训练管道的配置模板
• 内部API的认证逻辑
• 用于评估模型安全性的测试套件
这些代码的价值不在于复制产品,而在于暴露攻击面。安全工程师Mikko Hypponen在X上评论:「拿到训练配置,就能针对性设计提示注入攻击;知道评估方法,就能绕过安全检测。」
Anthropic的应对堪称迟缓。代码上线72小时后,公司才向GitHub提交DMCA(数字千年版权法)删除请求。这期间,仓库已被Fork(复制)超过400次,部分镜像至今仍在暗网流通。
第三颗雷:删帖操作 itself 翻车
真正的黑色幽默发生在收尾阶段。Anthropic法务团队提交的DMCA通知,被GitHub公开贴在了原仓库页面——这是平台标准流程,但通知内容暴露了更多内情。
文件列表中出现了从未对外披露的项目代号,包括与Google Cloud合作的定制模型、面向金融合规场景的专用版本。这些本应是高度保密的商业信息,因一份删帖请求而意外曝光。
更讽刺的是,通知中的法律联系人邮箱拼写错误,导致GitHub最初将邮件退回。删帖流程因此延误12小时,足够技术社区完成完整存档。Hacker News热评:「他们花了三天发现泄露,又花了半天连邮箱都打不对。」
事件背后的结构性问题
连续事故指向同一个病灶:权限管理混乱。泄露文件涉及至少三个内部团队——研究、工程、产品——但访问日志显示,上传者使用的API密钥属于一个已离职三个月的承包商账户。
密钥未失效、离职流程漏洞、跨团队数据隔离缺失,三个低级错误叠加成灾难。对比OpenAI 2023年的类似事件(员工误发内部备忘录),Anthropic的响应速度明显更慢,信息披露也更不透明。
值得玩味的是时机。事故爆发前一周,Anthropic刚刚完成35亿美元融资,估值推高至180亿美元。投资方包括Google、Salesforce、Spark Capital,尽调报告中「数据安全」章节想必正在紧急修订。
公司CEO Dario Amodei在3月22日的全员信中承认「严重失误」,但拒绝公开具体影响范围。据The Information报道,内部已启动第三方安全审计,预计耗时6-8周。
一个细节:泄露的模型代号"Jaguar"从未出现在任何公开资料中,但代码注释显示其定位是「Claude 4的中等规模变体,延迟降低40%」。这意味着Anthropic的产品路线图被迫提前曝光,竞争对手的应对窗口被打开。
当一家以"AI安全"为核心理念的公司,连自己的代码都守不住时,用户该相信它能管好更危险的通用人工智能吗?
热门跟贴