IBM CEO Arvind Krishna本周在Fox Business的采访里,把华盛顿的困境说得很直白:监管太多,糟;监管太少,后果可能更糟。得找到那个"刚刚好"的中间点。他还补了一句:要是搞成臃肿的官僚体系,美国在AI竞赛里可就难赢了。
Krishna说的平衡,远不止联邦层面。往下走,各州正在拼凑出一套碎片化的立法,重塑美国公司构建和部署AI的方式;往上看,全球竞争里技术实力连着经济地位和国家安全。但不管哪一层,清晰的路径都没出现。跟CEO们和政治领袖聊下来,"看不清"是共同的抱怨。
过去九个月,美国产出的AI立法比过去十年加起来还多,而且基于三种完全不同的政策目标。加州SB 53盯着前沿开发者的透明度;纽约的RAISE法案强制更严格的事故报告,还要在金融服务局里设一个新监管办公室;得州的TRAIGA禁止特定的故意滥用行为,同时设立36个月的监管沙盒。两周前康涅狄格州也加入了,两院以压倒性票数通过SB5,此前多年尝试都失败了。
联邦政策却在往相反方向晃。特朗普去年12月11日的行政令要求司法部挑战州级AI法律,还把宽带资金跟"最低负担"的国家标准挂钩。但前一天签署的2026财年国防授权法案,又完全排除了优先适用条款。
今年4月,Anthropic披露了一个叫Mythos Preview的模型——因为自主网络攻击能力太强,没敢公开发布——这种风险类别联邦对话根本没准备好接招。据说这次惊吓已经让白宫考虑搞一个类似FDA的预发布审查系统,给高级AI模型做上市前审批。这主意,本文第二作者2023年就跟参议院提过了。
国际背景更尖锐。欧盟在推进AI法案,中国按国家意志部署前沿能力,商业AI和国家安全能力的界限正在崩塌——美国政策要是继续混乱,代价会越来越高。
有统计显示,2025年州议会提出了1200多项AI相关法案,通过了将近150项,节奏还在加快。但数量之下藏着更根本的问题:各层级的政策制定者,都在缺乏一个共同测试标准的情况下干活——没人说得清,什么样的监管才算"刚刚好"。
热门跟贴