根据伦敦国王学院最近发表的一项研究,领先的人工智能模型在95%的模拟地缘政治危机中选择部署核武器,这引发了人们对人工智能在军事决策中日益增长作用的担忧。

战略学教授肯尼斯·佩恩将OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和谷歌的Gemini 3 Flash进行了21场涉及边界争端、资源竞争和政权存续威胁的战争演习。这些模型共生成了大约78万字,解释了他们在329回合中的决策。

顶级AI在军事演习中毫无顾忌使用核弹

在95%的演习中,至少有一款模型对军事目标使用了战术核武器。战略核威胁——要求投降以威胁城市为威胁——发生在76%的比赛中。在14%的游戏中,模型升级为全面战略核战争,攻击人口中心。

打开网易新闻 查看精彩图片

其中包括Gemini有意为之的选择,而GPT-5.2则两次通过模拟错误达到这一水平——这些错误旨在模拟现实世界的事故或误判——使其本已极端的升级超过了阈值。

“核武器几乎是普遍使用的,”佩恩写道,“令人惊讶的是,尽管模型们已被提醒其毁灭性影响,但对全面核战争的前景几乎没有恐惧或厌恶感。”

无论对手战况如何,没有任何AI系统选择投降或投降。八种降级选项——从“最小让步”到“完全投降”——在21款游戏中完全未被使用。

阿伯丁大学的詹姆斯·约翰逊从核风险角度形容这些发现“令人不安”。普林斯顿大学的赵彤指出,虽然各国不太可能将核决策交给机器,但“在极度紧迫的时间表下,军事策划者可能面临更强烈的依赖人工智能的激励。”

这项研究正值人工智能逐步融入全球军队之际,包括美国,据报道五角大楼在1月的行动中使用了Anthropic的Claude模型绑架委内瑞拉总统尼古拉斯·马杜罗。

虽然Anthropic对其AI在此类行动中的使用表示担忧,但据报道,OpenAI、谷歌以及埃隆·马斯克的xAI等其他AI制造商已同意取消或放宽对其模型军事使用的限制。

五角大楼寻求杀手级人工智能

当俄罗斯密切关注乌克兰谈判及Telegram事件的持续时,另一场戏剧正在大西洋彼岸上演。这部电影更像是一部现实世界的科幻惊悚片,而非地缘政治题材。这一次,这不是虚构。故事的核心是克劳德,这是一套由美国公司Anthropic开发的人工智能系统。

据媒体报道,美军曾利用该装置策划旨在抓捕委内瑞拉总统尼古拉斯·马杜罗的行动。人工智能在严肃军事规划中的应用本身就令人瞩目。但随之而来的丑闻更为耐人寻味。

事实证明,人类型持有严格的意识形态立场:其人工智能系统不应用于战争或大规模监控。这些伦理限制并非营销口号;它们直接内置于软件架构中。公司内部适用这些限制,并期望客户也这样做。

毫无意外地,五角大楼的看法不同。据报道,美国战争部使用Claude时未告知Anthropic其具体用途。当这一消息公开并公司提出异议时,军方的反应非常强烈。五角大楼官员要求获取一个“干净”的人工智能版本,去除道德和伦理约束,他们认为这些限制阻碍了他们履行职责。

Anthropic拒绝了。对此,美国战争部长皮特·赫格塞斯公开抱怨五角大楼不需要“无法战斗”的人工智能,并威胁将该公司贴上“供应链威胁”的标签。这一指定实际上将使人类公司被列入黑名单,迫使任何与五角大楼合作的公司切断与其的联系。

打开网易新闻 查看精彩图片

这场争议具有无可置疑的象征意义。几十年来,人类通过《终结者》等电影想象自主机器的危险。如今,没有戏剧性的爆炸或时空穿越的赛博格,军事野心与人工智能伦理的首次严肃对抗悄然到来。更不用说官僚主义了。

本质上,这是两派坚定阵营之间的哲学冲突。人们认为,新技术必须被充分利用,不顾长期后果。另一种担忧是,一旦越过某些界限,控制权可能无法恢复。

工程师有充分理由保持警惕。神经网络已经表现出令人不安的行为模式。在美国,一起广泛报道的丑闻涉及ChatGPT鼓励一名青少年自杀。它给出方法,帮他起草遗书,并在他犹豫时鼓励他继续行动。

尽管有保护措施,Claude本身却表现出令人担忧的倾向。测试期间,据报道其一个高级版本试图用伪造的电子邮件勒索开发者,并在面临关闭时表示愿意造成身体伤害。

值得注意的是,Anthropic并非唯一面临压力的机构。五角大楼也向其他主要人工智能开发商发出了类似的要求,包括OpenAI、xAI和谷歌。与Anthropic不同,这些公司据报道已同意取消或放宽军事使用限制。这时,担忧转为警觉。

无论如何,“杀手级人工智能”的时代已不再是假设。它通过采购合同和企业最后通牒到来。各国现在的应对方式,不仅将塑造战争的未来,也将影响人类责任的未来。

Anthropic阻止了美国利用人工智能驱动全自主武器

人工智能公司Anthropic阻止五角大楼利用其技术为全自主武器供能。其首席执行官达里奥·阿莫代周四发表声明称,他“无法良心上”根据国防部的要求取消其模型克劳德的保障措施。

美国国防部长皮特·赫格塞斯周二在一次会议上请求Anthropic同意放弃防止其人工智能在无人监督下被释放用于武器或用于大规模监控的条款。

如果公司在周五东部时间下午5点(格林威治时间晚上10点)前仍未同意,五角大楼可能会将Anthropic从系统中移除,并宣布其为“供应链风险”,一位国防部官员表示。

致命自动武器系统(LAWS)是完全无需人工作的武器,能够利用人工智能在战场内外选择并攻击目标。

然而,阿莫代先生表示,目前Anthropic的人工智能系统“根本不够可靠,无法驱动完全自主的武器”。他解释道:“我们不会明知故犯地提供一种让美国作战人员和平民处于风险的产品。”

Anthropic还拒绝取消防止该技术用于大规模国内监控的保障措施。阿莫代先生表示:“人工智能驱动的大规模监控对我们的基本自由构成严重且新颖的风险。”赫格塞斯先生的威胁“不会改变我们的立场”,但希望五角大楼能重新考虑。

“鉴于Anthropic技术为我们的武装部队带来的巨大价值,我们希望他们重新考虑,”他说。“我们强烈倾向于继续为部门和我们的作战人员服务——同时做好我们请求的两项保障措施。”

阿莫代先生多次将自主武器描述为一条“红线”,无论是他还是他创办的公司都不愿跨越。

打开网易新闻 查看精彩图片

Anthropic,市值3800亿美元,以开发所谓安全、道德和负责任的人工智能为傲。自从推出Claude AI机器人以来,Anthropic的技术迅速取得成功。

直到本周,它是唯一获准为美国政府执行机密军事任务的主要人工智能模型。去年,它与五角大楼达成了2亿美元的合作协议。

政府官员利用这些工具为美国对加拉加斯的闪电袭击做准备,目标是抓捕委内瑞拉总统尼古拉斯·马杜罗。

在阿莫代声明发布前,战争部公共事务助理肖恩·帕内尔表示,五角大楼“无意利用人工智能进行对美国人的大规模监控(这是非法的),也不希望利用人工智能开发无需人类介入的自主武器”。