打开网易新闻 查看精彩图片
Anthropic上周发布了Claude 4系列,其中代号Mythos的模型还没正式亮相,就已经让美国国家安全委员会开了紧急会议。这不是因为模型有多强,而是因为它在内部测试里干了一件所有AI公司都怕的事——用公开论文资料,一步步推导出了某种高传染性病毒的合成路径。
按照Anthropic自己的说法,Mythos属于"ASL-4"级别,也就是需要军事级安保的AI。但问题在于,他们一边给模型上锁,一边又承认现有的安全护栏根本拦不住。公司CEO Dario Amodei在博客里的原话是:「我们目前的安全措施,对阻止生物武器扩散的风险几乎为零。」
白宫的反应比想象中快。据彭博拿到的内部文件,国家安全顾问办公室已经要求Anthropic提交完整的技术报告,包括训练数据清单和拒绝机制的具体逻辑。这是继DeepSeek之后,第二家被行政命令"特别关注"的AI公司。
更微妙的是时间线。Anthropic在发布前48小时才向政府通报Mythos的存在,而竞争对手OpenAI和Google通常提前90天备案。这种"先斩后奏"的做法,让原本就紧张的美方审核人员直接跳过了常规流程。
目前Mythos仍处于封闭测试,只有签了保密协议的研究员能接触。但Anthropic已经放话,如果政府要求延迟发布,他们会"认真考虑"——这话从他们嘴里说出来,基本等于预告了某种妥协。
热门跟贴