打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

战争让世界出现裂痕,现代战争大规模应用AI等前沿技术,也让科技行业出现了裂痕

文|《财经》记者 刘以秦

编辑|谢丽容

2月28日,美国中央司令部联合以色列在中东对伊朗发动空袭,随后伊朗最高领袖哈梅内伊身亡。

据本地媒体报道,美军中央司令部在此次行动中持续调用AI(人工智能)创业公司Anthropic旗下的Claude大模型,用于情报评估、目标识别与战斗情景模拟,整个过程在机密网络内闭环完成。

Anthropic自2024年起就与五角大楼展开合作,为美军作战人员提供技术支持,Claude模型也是美国军方使用最深入的AI大模型。今年1月,美国军方抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动中也使用了Claude模型。但最近,双方合作陷入僵局。

就在针对伊朗的空袭发动前的几个小时,美国总统特朗普签署行政令,下令联邦政府所有机构立即停用Claude大模型,美国战争部(前国防部)将Anthropic列为“安全威胁”与“供应链风险”企业。这类禁令此前仅针对美国之外的企业。

美国战争部部长皮特·赫格塞斯表示,他们还将继续使用Claude模型大约六个月的时间,用来过渡替换其他模型。

根据Anthropic公司公告,他们就两个问题与五角大楼谈判了数月,一是大规模公民行为监控;二是自主武器(不需要人为干涉,自动选择和攻击目标)部署。但双方并未谈妥。

该公司首席执行官达里奥·阿莫迪(Dario Amodei)在一篇博客文章中称,“(美国政府停用模型)威胁不会改变我们的立场,我们无法昧着良心接受他们的要求。”

Anthropic被禁当晚,另一家风头正劲的AI独角兽OpenAI宣布与五角大楼达成合作协议。

打开网易新闻 查看精彩图片

谷歌与 OpenAI 员工们签署的公开信

这次合作在美国科技圈引发热议,本是竞争对手的头部AI公司的员工们站到了一起。截至目前,已有643位现任谷歌员工和96位现任OpenAI员工共同签署公开信,希望科技公司的领导人能够搁置分歧,团结一致,继续拒绝美国战争部目前提出的使用AI模型进行大规模监控和在无人监督的情况下自主杀人的要求。

OpenAI发布的公告称,他们与五角大楼的合作协议的安全性高于Anthropic的那一份协议,且明确提出不会做大规模监控和自主武器部署。

据本地媒体报道,在OpenAI和五角大楼谈判期间,有员工表示,如果达成合作,他们会选择跳槽至Anthropic。

OpenAI在今年2月27日宣布完成了一笔总额1100亿美元的破纪录融资,融资后估值达到8400亿美元。Anthropic在2月12日确认完成了300亿美元的融资,融资后估值为3800亿美元。

战争让世界出现裂痕,现代战争大规模应用AI等前沿技术,也让科技行业出现了裂痕。

打开网易新闻 查看精彩图片

Anthropic与五角大楼的裂痕

Anthropic从2024年6月开始为美国作战人员提供技术支持,订单金额2亿美元。据媒体报道,2025年中,谷歌、OpenAI和马斯克的xAI都与美国国防部首席数字和人工智能办公室签署了价值2亿美元的合同。

据Anthropic的官方公告,他们认为当今的前沿AI模型可靠性不足,无法用于全自动武器,会危及美国军人和平民的安全。同时,他们认为对美国公民进行大规模监控构成对基本权利的侵犯。

Anthropic是第一家将模型部署到美国政府机密网络的AI公司。据公司公告,Claude模型已经广泛应用于美国战争部和其他国家安全机构的关键人物应用,如情报分析、建模与仿真、作战规划、网络作战等。

该公司还表示,与五角大楼的合作实际上牺牲了公司的短期利益,“我们放弃了数亿美元的收入”。

据媒体报道,今年1月,美国军方抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动中,就使用了Claude模型,这次抓捕行动导致数十人丧生。此后,Anthropic和五角大楼之间就产生了矛盾,双方开始互相指责。

Anthropic担心五角大楼会用AI模型来做一些他们认为危险的事,包括大规模监控和自动武器。在五角大楼宣布将与xAI公司合作的活动上,美国战争部部长皮特·赫格塞斯表示,该机构不会采用那些无法用于打仗的AI模型

与此同时,阿莫迪多次公开强调AI的安全问题。白宫人工智能和加密货币负责人大卫·萨克斯则指责他是通过发表类似观点,来拖慢竞争对手的发展速度,以利于自身发展。

Anthropic与五角大楼产生裂痕期间,OpenAI立刻敲定了与美国战争部的合作。该公司在公告中称,这次的合作协议比以往所有协议的保障性更高,其中三条核心原则是:禁止使用OpenAI技术进行大规模国内监控;禁止使用OpenAI技术来控制自主武器系统;禁止将OpenAI技术用于高风险的自动化决策(例如“社会信用”系统)。

不过,同为科技公司立场,OpenAI还是在声明中提到,政府不应该把Anthropic列为供应链风险

打开网易新闻 查看精彩图片

军事中的技术底线分歧

在利用现代科技武装军事实力上,最有代表性的公司是美国科技公司Palantir。该公司成立于2003年,2005年拿到了美国中情局的投资,此后三年里,美国中情局是该公司唯一客户。此后,包括联邦调查局、美国陆军等几乎所有美国政府部门均与该公司达成合作。

Palantir的第一个商业客户摩根大通也是美国纽约警察局介绍的。

据公司财报,Palantir 2025年营收44.8亿美元,其中政府业务收入占比超过53%。该公司最新市值为3280亿美元。

Anthropic与五角大楼的合作也是通过Palantir平台完成,可以理解为,Palantir是“操作系统”,Claude模型是其中运行的“高级智能引擎”。同时合作也依托亚马逊AWS的安全基础设施,共同为情报与国防行动中的复杂数据处理与分析提供支持。

科技公司们在军事部署上的技术底线和伦理要求是什么这件事上,立场有所不同。

2018年,谷歌曾拒绝续签其与五角大楼的军事研发合作项目,该项目的目标是利用机器学习来改进无人机打击的精度。当时有不少谷歌员工发起反对,有近5000名员工签名请愿。2020年,亚马逊也限制美国警方使用他们的人脸识别软件。

特朗普的第二任总统任期之后,硅谷的科技公司们与白宫的合作变得紧密。2025年2月,谷歌取消了将其人工智能技术用于武器和监控的禁令。OpenAI近期修改了其使命宣言,删除了明确提及“安全”的内容。xAI也表示愿意满足国防需求。

不过,OpenAI和xAI还没有和Palantir深度绑定。美国战争部评估认为,替换模型需3个月—6个月(甚至长达12个月):需重新配置全流程数据输入标准、调整情报社区实时共享接口、让替代模型通过完整机密环境安全认证;需要针对Palantir工作流、数据传输管道及承包商软件工程工具完成深度定制。

作为参与战争最深入的科技公司之一,Palantir首席执行官Alex Karp曾多次援引奥本海默的话,形容AI的发展已经走到了类似奥本海默开发核武器时的十字路口。

他说,“对AI进一步发展的担忧并非毫无道理。我们正在开发的软件可以用于部署致命武器。武器系统与日益自主的AI软件的整合必然会带来风险。但停止开发这些技术的建议是错误的。”

Anthropic在公告中表示,将就五角大楼的决定提起诉讼。该公司也同时强调,公司积极主动地将模型部署到美国战争部和情报机构,“我们随时准备继续为维护美国国家安全而努力”。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片