导读:白宫上周把Anthropic、Google、OpenAI三家高管叫去开会,讨论一个新方案——AI模型发布前要先过政府审查。这和特朗普第一任期"放手让AI飞"的态度截然相反。

一、从"别管我"到"先审后发"

打开网易新闻 查看精彩图片

特朗普第一任期对AI的态度很明确:少监管,让企业自己管自己。2025年1月,他刚废除拜登2023年10月的AI行政令,那道命令要求"双重用途基础模型"开发者向政府提交安全测试结果。

现在风向变了。白宫正在讨论组建AI工作组,建立模型预发布审查机制。消息人士称,动机是网络安全担忧——特别是像Anthropic的Mythos这类高能力模型,可能被用于自动化漏洞挖掘或大规模社会工程攻击。

这个转向的讽刺之处在于:特朗普团队用"工作组"替代"行政令",形式不同,实质可能回归类似拜登时期的政府 oversight。区别只在于,这次先找了行业头部玩家通气。

二、被请进房间的三家公司

上周的闭门会议名单很精准:Anthropic、Google、OpenAI。这三家代表着当前最前沿的AI实验室,也是模型能力迭代最快的玩家。

政府选择先 briefing 而非直接下命令,说明在试探行业反应。三家公司至今未公开置评——这种沉默本身就有信息量。要么在内部评估影响,要么在协调回应口径。

关键未知数:审查门槛怎么定?是按模型参数量、训练成本,还是按能力评估?更重要的是,审查范围包不包括开源权重模型(如Llama、Mistral),还是仅限API管控的闭源系统?

这个区分将直接决定Meta、Mistral等开源阵营的命运。如果开源模型被纳入,意味着发布前需要政府许可,开源社区的快速迭代节奏将被打破。

三、与欧盟AI法案的意外对齐

若该机制落地,美国将首次在AI监管框架上与欧盟形成实质性趋同。欧盟AI法案对"高风险"AI系统实行分级审查义务,特朗普工作组的方向与此类似。

但差异在于执行细节。欧盟法案经过数年立法程序,条款明确;美国这边连工作组的职权范围、审查标准、执法机制都尚未定义。也没有提及违规处罚,或是否追溯已部署模型。

时间线同样模糊。消息源预计正式公告可能在60-90天内发布,包括工作组成员名单和章程。但对科技公司来说,这个窗口期既是游说机会,也是不确定性风险。

四、拜登遗产的借尸还魂?

表面看,特朗普废除了拜登的AI行政令,是"去监管"的胜利。但细究内容,新讨论的工作组机制可能重新引入相似要求——安全测试报告、政府审查、发布前批准。

区别在于路径:拜登用行政令直接约束,特朗普选择先建工作组、再定规则。这种"软启动"策略或许是为了避免与科技行业的正面冲突,尤其是考虑到马斯克等硅谷盟友对AI监管的态度分化。

另一个变量是网络安全叙事。拜登时期强调"AI安全"的抽象风险,特朗普团队将其具体化为网络攻击工具化——这种框架更容易获得跨党派支持,也更难被行业公开反对。

五、开源阵营的沉默警报

当前讨论的最大盲区是开源模型。原文未提及Meta、Mistral或任何开源倡导者是否被纳入咨询,但审查机制的设计将直接决定他们的生存空间。

如果审查仅针对API-gated系统,开源模型可能通过"技术中立"漏洞规避;若覆盖所有公开发布,则意味着权重文件上传前需要政府许可——这对依赖社区快速迭代的开源生态是致命打击。

值得观察的信号:未来两个月内,开源阵营是否会组织反向游说。Meta在Llama上的投入、Mistral的欧洲市场地位,都使其有动机阻止审查范围扩大。

六、实用判断:这件事为什么重要

对AI从业者而言,这不是遥远的政策新闻,而是即将落地的合规成本。如果你在做基础模型开发,需要关注三个节点:

第一,60-90天后的工作组章程,看审查门槛如何量化;第二,是否区分开源/闭源部署模式,这决定技术路线选择;第三,与现有出口管制(如芯片禁令)的叠加效应,可能形成"训练-审查-部署"全链条监管。

更深层的影响在于创新节奏。预发布审查意味着模型迭代周期中插入政府流程,从周级可能延长到月级。对于依赖快速实验的AI研究,这是结构性改变。

最后一点:特朗普团队的转向证明,AI监管 bipartisan 共识正在形成——区别只在速度和形式。押注"完全无监管"窗口期的商业策略,需要重新评估。