【美国政府扩大对前沿人工智能模型的安全风险审查】
美国商务部人工智能标准与创新中心将在新AI系统公开发布前进行安全性测试。 顶级人工智能公司微软、xAI和Google DeepMind已与商务部签署协议,允许政府在发布前对其AI模型进行国家安全风险的审查。 美国商务部国家标准与技术研究院下属的人工智能标准与创新中心宣布,将对这些公司开发的人工智能模型进行部署前评估和“有针对性研究”。 CAISI主任克里斯·福尔在一份声明中表示:“独立且严谨的测量科学对于理解前沿人工智能及其国家安全影响至关重要。” 这些协议与拜登政府与领先的人工智能实验室OpenAI和Anthropic于2024年8月达成的自愿审查协议极为相似——CAISI表示,这些安排后来已“重新谈判”以反映特朗普政府的优先事项。 正值美国政府日益紧迫地应对前沿人工智能工具带来的安全风险之际,包括Anthropic新Mythos模型引发的网络安全担忧。《纽约时报》周一报道,白宫正在考虑一项行政命令,建立一个正式的政府审查程序,针对新的人工智能模型。 CAISI在一份声明中表示,其与微软、xAI和Google DeepMind的合作将“支持信息共享,推动自愿产品改进,并确保政府对AI能力和国际AI竞争状况的清晰理解。” 微软和Google DeepMind的发言人指出,公司高管在社交媒体上发布的帖子确认他们参与了CAISI的自愿审查制度。据微软负责任人工智能办公室负责人Natasha Crampton介绍,公司也与英国AI安全研究所签署了类似协议。 xAI发言人未回应置评请求。
美国商务部人工智能标准与创新中心将在新AI系统公开发布前进行安全性测试。 顶级人工智能公司微软、xAI和Google DeepMind已与商务部签署协议,允许政府在发布前对其AI模型进行国家安全风险的审查。 美国商务部国家标准与技术研究院下属的人工智能标准与创新中心宣布,将对这些公司开发的人工智能模型进行部署前评估和“有针对性研究”。 CAISI主任克里斯·福尔在一份声明中表示:“独立且严谨的测量科学对于理解前沿人工智能及其国家安全影响至关重要。” 这些协议与拜登政府与领先的人工智能实验室OpenAI和Anthropic于2024年8月达成的自愿审查协议极为相似——CAISI表示,这些安排后来已“重新谈判”以反映特朗普政府的优先事项。 正值美国政府日益紧迫地应对前沿人工智能工具带来的安全风险之际,包括Anthropic新Mythos模型引发的网络安全担忧。《纽约时报》周一报道,白宫正在考虑一项行政命令,建立一个正式的政府审查程序,针对新的人工智能模型。 CAISI在一份声明中表示,其与微软、xAI和Google DeepMind的合作将“支持信息共享,推动自愿产品改进,并确保政府对AI能力和国际AI竞争状况的清晰理解。” 微软和Google DeepMind的发言人指出,公司高管在社交媒体上发布的帖子确认他们参与了CAISI的自愿审查制度。据微软负责任人工智能办公室负责人Natasha Crampton介绍,公司也与英国AI安全研究所签署了类似协议。 xAI发言人未回应置评请求。

JPG
长图
JPG
长图
JPG
长图
JPG
长图
JPG
长图
JPG
长图