当地时间3月9日,人工智能企业Anthropic针对美国国防部将其列入“供应链风险”名单的决定,向美国加州联邦法院提起诉讼。

3月5日,美国国防部正式将Anthropic及其AI模型Claude认定为“供应链风险”实体,这一标签此前仅针对外国对手企业。根据该认定,所有国防承包商需证明其未在国防部项目中使用Anthropic的技术,美国国防部为自身设定了6个月过渡期逐步停止与该公司的合作,但未向相关承包商提供同等过渡时长。

双方核心分歧聚焦于AI技术的使用限制。美国国防部要求Anthropic完全开放Claude的使用权限,允许军方将模型用于“所有合法用途”,不接受企业自行设置使用约束;Anthropic则明确表示,坚决反对其技术被用于全自动武器系统与美国国内大规模监控场景。

Anthropic在诉讼文件中指出,国防部的认定非法,侵犯了公司的言论自由与正当程序权利,请求法院撤销该认定,并禁止联邦机构执行相关限制措施。Anthropic同时表示,提起诉讼不影响其利用AI维护国家安全的长期承诺,仍将通过包括对话在内的多种途径寻求解决方案。

当地时间3月10日,微软提交法庭之友意见书,支持Anthropic申请临时限制令的请求,主张在案件审理期间暂缓执行国防部的“供应链风险”认定。微软表示,由于其将Anthropic的产品整合进了提供给美军的技术体系中,该认定已对其业务产生直接影响,若不发布临时限制令,相关供应商将被迫紧急调整业务体系,承受高额损失。同日,来自OpenAI和谷歌的37名研究人员及工程师也提交法庭意见书,对Anthropic表示支持。

据多家外媒消息,白宫正在准备一项行政命令,要求联邦政府各机构停止在政府系统中使用Anthropic的产品。此前,美军在对伊朗的军事打击中曾使用Anthropic的AI技术,Anthropic此前也曾是唯一被批准在国防部机密网络运行AI系统的供应商。

市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。

本文源自:市场资讯

作者:观察君