「想要摸清前沿人工智能技术及其对国家安全造成的潜在影响,独立且严谨的量化评测体系至关重要。」——美国商务部人工智能标准与创新中心主任克里斯・福尔,在宣布这项新协议时说了这句话。
5月5日消息,微软、谷歌、xAI三家巨头与美国政府达成协议:新一代人工智能模型正式发布前,须提前向美方开放权限,供其开展国家安全风险审查。这是2024年拜登政府与OpenAI、Anthropic协议的扩展版,如今名单更长,审查范围也更宽。
协议核心:模型未发,审查先行
美国商务部人工智能标准与创新中心(原美国人工智能安全研究所)是这次审查的执行方。该中心披露,目前已完成40余次模型评估,其中不乏尚未向公众开放的尖端模型。
企业开发者甚至会主动提交「移除安全防护机制」的版本,供中心深入排查。这种「裸奔测试」的逻辑在于:要看清一个模型的真实破坏力,得先拆掉它身上的安全锁。
审查目标很明确:网络攻击、军事滥用等潜在威胁,必须在技术大规模普及前被识别。
背景焦虑:Anthropic的Mythos把华盛顿吓到了
近几周,Anthropic公司发布的Mythos系统在全球引发热议。美国政府官员和企业界普遍担忧:这类先进模型会极大助长黑客的攻击能力。
讽刺的是,Anthropic并未出现在另一份合作名单中。美国国防部上周宣布与七家AI企业达成合作,将先进技术部署至涉密网络,扩充军方服务商队伍。Anthropic正因军方对其AI工具的使用权限与安全约束问题,和五角大楼陷入纠纷。
一边被政府忌惮其技术危险性,一边又因拒绝充分合作被排除在军方采购外——Anthropic的处境,折射出AI企业在国家安全话语体系中的微妙位置。
清单:这次协议暴露的五个关键信号
1. 审查常态化。从OpenAI、Anthropic扩展到微软、谷歌、xAI,覆盖范围持续扩大。前沿AI模型正被纳入类似金融、电信的监管前置框架。
2. 测试深度升级。企业主动提交「去安全化」版本,意味着审查不再停留在表面功能,而是直指模型的底层破坏潜能。
3. 军方与民用的边界模糊。国防部同步推进涉密网络部署,安全审查与军事应用形成上下游链条。
4. 企业策略分化。xAI作为马斯克旗下公司,此前多次批评AI监管过度,此次却选择配合;Anthropic则因安全理念分歧与军方僵持。
5. 评估体系话语权争夺。福尔强调的「独立且严谨的量化评测」,暗示美国正试图建立全球AI安全评估的标准制定权。
数据收束
40余次评估已完成,微软谷歌xAI新模型即将进入审查队列,五角大楼的涉密网络正在接入七家企业的AI技术。 Anthropic的Mythos引发的恐慌尚未消退,而美国政府构建的「预审-测试-军用」三级体系已初步成型。 对科技从业者而言,这意味着前沿AI的产品化路径上,多了一道不可绕过的行政闸门——且这道闸门正在越收越紧。
热门跟贴