特朗普政府原本对AI的态度很明确:少管一点,让美国公司跑快一点,先赢下对中国的AI竞赛。
但现在,白宫内部开始紧张了。
据《华尔街日报》报道,Anthropic 的新模型 Mythos,让美国副总统万斯和白宫高层重新考虑一个问题:如果最强AI模型已经能自己寻找软件漏洞,甚至可能被用于攻击银行、医院和水厂这样的关键系统,政府还能继续只讲“放松监管”吗?
这不是一场普通的科技公司争议。
它可能意味着,美国AI政策正在从“让企业先冲”,转向“最危险的模型必须先过一遍政府视线”。
先看重点
万斯在4月一次与科技公司CEO的电话会议上,对Anthropic的Mythos等新模型能力表达担忧。
参会者包括OpenAI的萨姆·奥尔特曼、Anthropic的达里奥·阿莫迪、埃隆·马斯克、谷歌CEO桑达尔·皮查伊、微软CEO萨提亚·纳德拉等。
白宫正在考虑一项行政令,可能为最先进AI模型建立正式审查流程。
特朗普政府已要求Anthropic暂缓向更多公司和关键基础设施机构开放Mythos。
这标志着白宫AI路线可能出现转向:从强调去监管、拼速度,开始转向安全审查和政府介入。
白宫为什么突然慌了?
Mythos真正让白宫担心的,不是它会写文章、写代码,而是它能自己寻找软件漏洞。
这听起来像安全公司梦寐以求的工具:帮银行、医院、电网、水厂提前发现漏洞,补上系统短板。
但问题也在这里。
同样的能力,如果落到攻击者手里,也可以变成自动化网络攻击工具。
万斯担心的是,小城镇银行、地方医院、水处理设施这类机构,根本没有能力抵御由高级AI模型发起或辅助的攻击。
这就是AI安全问题最现实的一面:它不是“机器人统治人类”的科幻桥段,而是你家附近医院系统瘫痪、地方银行被攻击、供水系统出问题。
当AI模型开始具备真实网络攻防能力,监管就不再只是科技伦理讨论,而变成国家安全问题。
特朗普的AI路线,开始拧巴了
特朗普政府过去一直反对过度监管AI。
白宫科技顾问戴维·萨克斯代表的是更典型的硅谷路线:不要让官僚拖慢美国创新,不要在和中国竞争时自缚手脚。
万斯此前也曾在全球AI峰会上警告盟友,不要把AI监管搞得太重。
但Mythos事件让这套说法遇到了麻烦。
如果最先进模型可能直接影响网络安全、金融系统和关键基础设施,政府就很难只说一句“让市场自己解决”。
《华尔街日报》提到,白宫正在考虑的行政令,可能建立一个针对最先进AI模型的正式监督流程。白宫国家网络主任肖恩·凯恩克罗斯已被安排牵头处理Mythos相关问题。
换句话说,美国政府不是不想让AI公司跑,而是开始担心:跑太快,车可能撞进关键基础设施。
科技公司也被拉进了同一间屋子
这次会议的阵容很说明问题。
OpenAI、Anthropic、谷歌、微软、马斯克旗下公司,几乎都是美国AI核心玩家。
白宫把这些CEO拉到一起,不只是听汇报,而是在释放信号:最强模型的发布和开放,不再只是公司自己的产品节奏。
OpenAI方面也表示,在预览其最先进网络模型 GPT-5.5-Cyber 之前,曾与政府沟通,并限制访问。
这说明行业内部也明白,网络能力模型和普通聊天机器人不是一回事。
谁能用?用到什么程度?是否开放给关键基础设施机构?是否允许第三方接入?这些问题已经进入白宫的议程。
AI公司过去争的是算力、模型、用户和资本,现在还要争取监管信任。
白宫内部也不是铁板一块
这件事真正有意思的地方,是特朗普政府内部也分裂了。
一派认为,Mythos确实说明AI能力到了危险拐点,政府必须介入。
另一派则担心,这会变成对AI行业的过度监管,拖慢美国创新速度。
国家经济委员会主任凯文·哈西特甚至把未来可能的审查流程,类比为药品上市前接受美国食品药品监督管理局审查。这句话马上引发批评,因为很多AI宽松派最怕的就是把AI管成药品。
支持轻监管的人认为,如果AI模型发布也要走类似审批流程,美国公司速度会变慢,中国反而可能受益。
支持加强监管的人则认为,如果模型强到可以自动找漏洞、发动攻击,不审查才是不负责任。
这就是当前AI政策最核心的矛盾:
管得太重,怕输掉竞赛。
管得太轻,怕出大事故。
Anthropic的位置也很微妙
Anthropic一直比很多AI公司更愿意强调安全和监管。
它支持联邦层面的AI护栏,也曾资助推动更严格AI规则的政治组织。这让它和特朗普政府的低监管路线一度关系紧张。
但现在,事情反而变得复杂。
Anthropic的Mythos能力太强,吓到了白宫;同时,它也因为强调安全,成了白宫不得不认真沟通的对象。
Anthropic CEO阿莫迪上月曾与财政部长贝森特、白宫幕僚长苏西·怀尔斯会面,讨论Mythos问题,双方试图缓和此前持续数月的冲突。
这像是一种讽刺:
最愿意谈AI风险的公司,反而因为模型太强,把风险直接摆到了白宫桌面上。
中美AI竞争也要加入“安全护栏”了
报道还提到,美国和中国正在考虑在下周中国峰会前,启动关于AI风险的正式讨论。
这点很重要。
过去中美AI叙事主要是“谁领先”“谁卡谁芯片”“谁控制算力”。但当AI模型开始具备网络攻防能力,问题就不只是商业竞争,而是危机管控。
如果一个模型被误用,攻击了金融机构或基础设施,责任怎么判断?
如果AI生成的网络攻击跨境扩散,国家之间如何避免误判?
如果美国限制模型能力,中国是否也会建立类似机制?
这些问题现在都绕不开。
AI竞争不会消失,但它可能开始进入核武器、网络战那种“既竞争又要设护栏”的阶段。
这件事真正值得看的地方
这篇报道表面讲的是Anthropic和白宫的冲突,实质上讲的是AI行业进入了一个新阶段。
过去,政府担心AI会影响舆论、版权、就业、隐私。
现在,政府开始担心AI能不能直接攻击现实世界的基础系统。
这一步很关键。
因为一旦AI被纳入国家安全框架,科技公司的自由度就会下降。模型发布不再只是产品发布,而可能变成一件需要和政府协调的安全事件。
对普通人来说,这事也不远。
未来AI模型越强,公司服务越依赖AI,银行、医院、交通、电力、水务系统就越需要AI防守。但同一批技术,也可能被攻击者利用。
所以真正的问题不是“要不要发展AI”。
真正的问题是:
当AI强到可以影响现实基础设施时,谁来决定它能不能放出去?
以前答案是科技公司自己。
现在,白宫显然想把手伸进来了。
文章来源
https://www.wsj.com/tech/ai/trump-ai-anthropic-mythos-regulation-2378971f?mod=hp_lead_pos1
热门跟贴