几位科技巨头的高管上周被召进白宫会议室。他们不知道的是,自己正在参与一场可能改写行业规则的闭门讨论——政府想要建立一套针对大模型的上市前审查机制。
从"放手不管"到"亲自上手",特朗普的AI政策急转弯
这很反常。就在几个月前,特朗普政府还在高调推进"去监管化":联邦AI行动计划明确要减少对科技公司的约束,甚至威胁削减那些"用法规阻碍AI基建"的州的联邦拨款。
《一个又大又美的法案》原稿更狠——建议各州10年内不得单独出台AI监管法规,把权力全部收归联邦。
FCC主席布兰登·卡尔(Brendan Carr)作为特朗普任命的官员,此前也公开主张对AI采取"轻触式监管"。
现在同一批人却在讨论:要不要给每个新模型发"准生证"?
这个工作组到底要干什么
据《纽约时报》援引匿名官员消息,白宫正在组建一个AI工作组,成员包括科技领袖和政府代表。核心任务只有一件:设计新模型的上市前监管流程。
上周的会议已启动初步磋商。参会名单很有代表性:Anthropic、Google、OpenAI——当前大模型赛道的头部玩家悉数到场。
工作组的另一项关键任务是"分地盘":确定哪些联邦机构来执行审查。目前被点名的包括:
• 国家安全局(NSA)
• 白宫国家网络总监办公室
• 国家情报总监办公室
还有人提议重启拜登时期设立的"人工智能标准与创新中心"——一个被特朗普政府边缘化的机构。
英国模式成了参考样本
美国官员盯上了英国的监管架构。英国的做法是把AI oversight(监管权)分散给各相关政府部门,而非设立单一超级机构。
这种"分业监管"思路正在被白宫借鉴。但复制粘贴没那么简单:英国的政府部门架构和美国完全不同,NSA这类情报机构介入民用技术审查,在美国会引发更复杂的宪法争议。
为什么突然变脸?三个值得注意的信号
政策转向背后有几个现实压力:
第一,模型能力迭代速度已经超出既有监管框架的覆盖范围。现有的事后追责机制,面对可能数周就更新一代的大模型,显得过于迟钝。
第二,2024年大选周期中,AI生成内容对舆论场的冲击让两党都意识到,完全放任的风险正在政治化。即便是反监管的共和党阵营,也无法忽视"深度伪造冲击选举"的叙事压力。
第三,行业内部其实存在监管套利需求。头部公司私下支持一定程度的联邦标准——这能把合规成本转嫁给中小竞争者,同时避免50个州各自立法的碎片化噩梦。
Anthropic参会本身就说明问题。这家公司一直以"AI安全"作为品牌差异化卖点,主动拥抱监管符合其商业利益。
"轻触式监管" vs "上市前审查":逻辑怎么自洽
卡尔的公开表态和白宫的实际行动之间存在明显张力。一种可能的解释是:特朗普团队正在区分"对AI应用的监管"和"对模型本身的监管"。
前者——比如自动驾驶、医疗诊断等具体场景——继续放松;后者——基础大模型的发布——则要加上政府把关。这种"抓大放小"的策略,既能回应安全焦虑,又不至于被批评阻碍创新。
但执行层面充满悖论。如果NSA主导审查,国家安全逻辑会压倒商业考量;如果重启拜登时代的创新中心,又等于承认前任的部分遗产;如果让多个机构分权,企业将面临多头合规的噩梦。
更棘手的是时间窗口。大模型发布周期以周计算,政府审查流程以月计算——这个速度差怎么解决,工作组目前还没有答案。
对从业者的直接影响
如果你在这个行业,需要关注三个变量:
审查标准的透明度。是公开的技术指标,还是闭门的安全评估?这决定了合规成本的可预测性。
grandfather clause(祖父条款)的适用范围。已经在运行的模型要不要补审?GPT-4、Claude 3这类成熟产品是否豁免?
州级监管的真空期。《一个又大又美的法案》如果通过,各州10年内不得单独立法——这意味着未来十年,联邦审查将是唯一的游戏规则制定者。
这不是监管回归,是监管重构
特朗普政府的转向不能简单理解为"拥抱拜登路线"。两者的底层逻辑完全不同:拜登团队相信专业官僚机构的技术判断力,特朗普团队更倾向把审查权集中在情报和安全体系内。
这种差异会深刻影响审查的实质内容。前者可能关注算法偏见、数据隐私;后者更可能聚焦模型是否可被敌对势力利用、训练数据是否包含敏感信息。
对科技公司来说,这意味着合规策略的全面重置。过去两年打磨的"负责任AI"叙事可能需要让位于"国家安全合规"叙事。
工作组的最终报告尚未出炉,但方向已经明确:完全自由的模型发布时代正在结束。问题是,接替它的会是一套可预期的规则,还是另一场充满不确定性的政治博弈。
现在值得做的动作:盯紧工作组的人员构成——情报机构代表和科技代表的比例,将决定这套审查机制的终极形态。
热门跟贴