特朗普政府原本对AI的态度很明确:少管一点,让美国公司跑快一点,先赢下对中国的AI竞赛。

但现在,白宫内部开始紧张了。

据《华尔街日报》报道,Anthropic 的新模型 Mythos,让美国副总统万斯和白宫高层重新考虑一个问题:如果最强AI模型已经能自己寻找软件漏洞,甚至可能被用于攻击银行、医院和水厂这样的关键系统,政府还能继续只讲“放松监管”吗?

这不是一场普通的科技公司争议。

它可能意味着,美国AI政策正在从“让企业先冲”,转向“最危险的模型必须先过一遍政府视线”。

打开网易新闻 查看精彩图片

先看重点

万斯在4月一次与科技公司CEO的电话会议上,对Anthropic的Mythos等新模型能力表达担忧。

参会者包括OpenAI的萨姆·奥尔特曼、Anthropic的达里奥·阿莫迪、埃隆·马斯克、谷歌CEO桑达尔·皮查伊、微软CEO萨提亚·纳德拉等。

白宫正在考虑一项行政令,可能为最先进AI模型建立正式审查流程。

特朗普政府已要求Anthropic暂缓向更多公司和关键基础设施机构开放Mythos。

这标志着白宫AI路线可能出现转向:从强调去监管、拼速度,开始转向安全审查和政府介入。

白宫为什么突然慌了?

Mythos真正让白宫担心的,不是它会写文章、写代码,而是它能自己寻找软件漏洞。

这听起来像安全公司梦寐以求的工具:帮银行、医院、电网、水厂提前发现漏洞,补上系统短板。

但问题也在这里。

同样的能力,如果落到攻击者手里,也可以变成自动化网络攻击工具。

万斯担心的是,小城镇银行、地方医院、水处理设施这类机构,根本没有能力抵御由高级AI模型发起或辅助的攻击。

这就是AI安全问题最现实的一面:它不是“机器人统治人类”的科幻桥段,而是你家附近医院系统瘫痪、地方银行被攻击、供水系统出问题。

当AI模型开始具备真实网络攻防能力,监管就不再只是科技伦理讨论,而变成国家安全问题。

特朗普的AI路线,开始拧巴了

特朗普政府过去一直反对过度监管AI。

白宫科技顾问戴维·萨克斯代表的是更典型的硅谷路线:不要让官僚拖慢美国创新,不要在和中国竞争时自缚手脚。

万斯此前也曾在全球AI峰会上警告盟友,不要把AI监管搞得太重。

但Mythos事件让这套说法遇到了麻烦。

如果最先进模型可能直接影响网络安全、金融系统和关键基础设施,政府就很难只说一句“让市场自己解决”。

《华尔街日报》提到,白宫正在考虑的行政令,可能建立一个针对最先进AI模型的正式监督流程。白宫国家网络主任肖恩·凯恩克罗斯已被安排牵头处理Mythos相关问题。

换句话说,美国政府不是不想让AI公司跑,而是开始担心:跑太快,车可能撞进关键基础设施。

科技公司也被拉进了同一间屋子

这次会议的阵容很说明问题。

OpenAI、Anthropic、谷歌、微软、马斯克旗下公司,几乎都是美国AI核心玩家。

白宫把这些CEO拉到一起,不只是听汇报,而是在释放信号:最强模型的发布和开放,不再只是公司自己的产品节奏。

OpenAI方面也表示,在预览其最先进网络模型 GPT-5.5-Cyber 之前,曾与政府沟通,并限制访问。

这说明行业内部也明白,网络能力模型和普通聊天机器人不是一回事。

谁能用?用到什么程度?是否开放给关键基础设施机构?是否允许第三方接入?这些问题已经进入白宫的议程。

AI公司过去争的是算力、模型、用户和资本,现在还要争取监管信任。

白宫内部也不是铁板一块

这件事真正有意思的地方,是特朗普政府内部也分裂了。

一派认为,Mythos确实说明AI能力到了危险拐点,政府必须介入。

另一派则担心,这会变成对AI行业的过度监管,拖慢美国创新速度。

国家经济委员会主任凯文·哈西特甚至把未来可能的审查流程,类比为药品上市前接受美国食品药品监督管理局审查。这句话马上引发批评,因为很多AI宽松派最怕的就是把AI管成药品。

支持轻监管的人认为,如果AI模型发布也要走类似审批流程,美国公司速度会变慢,中国反而可能受益。

支持加强监管的人则认为,如果模型强到可以自动找漏洞、发动攻击,不审查才是不负责任。

这就是当前AI政策最核心的矛盾:

管得太重,怕输掉竞赛。

管得太轻,怕出大事故。

Anthropic的位置也很微妙

Anthropic一直比很多AI公司更愿意强调安全和监管。

它支持联邦层面的AI护栏,也曾资助推动更严格AI规则的政治组织。这让它和特朗普政府的低监管路线一度关系紧张。

但现在,事情反而变得复杂。

Anthropic的Mythos能力太强,吓到了白宫;同时,它也因为强调安全,成了白宫不得不认真沟通的对象。

Anthropic CEO阿莫迪上月曾与财政部长贝森特、白宫幕僚长苏西·怀尔斯会面,讨论Mythos问题,双方试图缓和此前持续数月的冲突。

这像是一种讽刺:

最愿意谈AI风险的公司,反而因为模型太强,把风险直接摆到了白宫桌面上。

中美AI竞争也要加入“安全护栏”了

报道还提到,美国和中国正在考虑在下周中国峰会前,启动关于AI风险的正式讨论。

这点很重要。

过去中美AI叙事主要是“谁领先”“谁卡谁芯片”“谁控制算力”。但当AI模型开始具备网络攻防能力,问题就不只是商业竞争,而是危机管控。

如果一个模型被误用,攻击了金融机构或基础设施,责任怎么判断?

如果AI生成的网络攻击跨境扩散,国家之间如何避免误判?

如果美国限制模型能力,中国是否也会建立类似机制?

这些问题现在都绕不开。

AI竞争不会消失,但它可能开始进入核武器、网络战那种“既竞争又要设护栏”的阶段。

这件事真正值得看的地方

这篇报道表面讲的是Anthropic和白宫的冲突,实质上讲的是AI行业进入了一个新阶段。

过去,政府担心AI会影响舆论、版权、就业、隐私。

现在,政府开始担心AI能不能直接攻击现实世界的基础系统。

这一步很关键。

因为一旦AI被纳入国家安全框架,科技公司的自由度就会下降。模型发布不再只是产品发布,而可能变成一件需要和政府协调的安全事件。

对普通人来说,这事也不远。

未来AI模型越强,公司服务越依赖AI,银行、医院、交通、电力、水务系统就越需要AI防守。但同一批技术,也可能被攻击者利用。

所以真正的问题不是“要不要发展AI”。

真正的问题是:

当AI强到可以影响现实基础设施时,谁来决定它能不能放出去?

以前答案是科技公司自己。

现在,白宫显然想把手伸进来了。

文章来源

https://www.wsj.com/tech/ai/trump-ai-anthropic-mythos-regulation-2378971f?mod=hp_lead_pos1