最近刷到外媒爆料,直接惊到我——伊朗一所学校被炸,背后居然可能是美国五角大楼的AI下的命令?这不是科幻电影里的情节吗?短短俩月,美国和盟友以色列干了两件大事:委内瑞拉总统马杜罗被绑架,伊朗最高领袖哈梅内伊被刺杀,这些行动居然都有AI的影子?
俩月内俩国家遭重创,美以这波操作快得离谱。信息准不准、传得快不快、方案选得好不好,全靠智能系统兜底,AI在里面当主导。五角大楼虽然承认用了AI,但啥细节都没说。间接证据显示,Palantir情报项目、卫星、地面人员这些渠道,先把海量数据堆过来,AI再处理解读。
据说这AI用机器学习,能认目标还能排优先级,根据库存和之前打类似目标的经验推荐武器,连打击的法律依据都能评估。俄罗斯科学院的斯特凡诺维奇说,有AI帮忙,兵力资源部署更高效,能赢还能考虑所有因素——敌人反制、地形、天气啥的都算进去。
很可能同时用了好几种AI模型,大部分得出一样的结论,就直接启动执行,快到几乎眨眼的功夫。现在还没证据说AI扣扳机,导弹还是人发,但五角大楼计划以后把这活交给算法。
这事能爆出来,全因为英国战争部长赫格塞斯和Anthropic公司老板达里奥·阿莫迪的丑闻。Anthropic是Claude聊天机器人的开发商,2021年从OpenAI分拆出来的。分拆原因是伦理——阿莫迪兄妹觉得当时OpenAI的领导萨姆·奥特曼搞的AI可能威胁人类,所以自己搞了个服务保护人类的AI,名字都强调以人类为中心。
他们的模型比对手强,直接吸引了五角大楼,拿到了大国防合同。阿莫迪说,国防部用这系统干情报分析、建模仿真、作战规划、网络作战这些活。媒体还爆,Claude参与了袭击委内瑞拉——那次美军造成83人死亡,还绑了马杜罗。
虽然行动成功,但五角大楼对合同里的两条款不爽。协议里说,美国战争部可以随便用系统,但俩例外:不能大规模监视美国公民(别人可以),不能给完全自主的作战设备用——阿莫迪觉得AI现在还不可靠,不能让它自主杀人。
不满去年12月就冒头了。媒体说,一次假想核战争讨论里,陆军领导问Anthropic的代表,系统能不能自己决定摧毁敌方导弹,那IT专家说最好先联系技术支持。但公司否认有这对话。
伊朗被炸前几天,赫格塞斯给阿莫迪发最后通牒:要么删俩“利他条款”,要么把公司列成“供应链威胁”——之前只有敌对国公司才会被列这个。阿莫迪虽然说自己爱国,想保住合同,但还是直接拒绝了。
白宫和五角大楼炸了。特朗普下令所有联邦机构立刻停用Claude,骂公司是“激进左翼,运营者不懂现实”。赫格塞斯更直接,骂阿莫迪“伪善的利他主义”。
陆军部长说,阿莫迪他们明显想夺美军作战决策的否决权,这绝对不行,美军不能当科技公司意识形态的俘虏。他下令把Anthropic列成供应链威胁,但媒体说,这些声明没挡住Claude被用来炸伊朗,五角大楼后来澄清,淘汰这公司要6个月。
斯特凡诺维奇觉得,“伪善利他”的理想主义赢不了——战争部迟早能随便用AI。美国国内立法有意思,本土AI公司很难拒绝政府的请求、提议甚至命令,管得特别严。
他说,短期内关键军事决策还是人做,但最大问题是,人能不能拿到足够信息做对选择?伊朗米纳布那所学校被炸后,人们在废墟里清理——谁下令炸的还不清楚,但AI出错的可能不能排除。
加沙就是前车之鉴,过度依赖自动化信息处理和目标定位,导致平民伤亡惨重。人类为啥会盲目信AI?因为数据量太大、计算太快,人根本追不上机器为啥得出某个结论,只能跟着走,不管后果。
伦敦国王学院的佩恩教授做了个实验,让GPT5.2、Claude Sonnet4、Gemini3这三个先进语言模型,在模拟核危机里当世界领导人。总共21场对战,有时间限制也有没有的,场景包括领土争端、政权危机、怕对方先发制人。
每场对战,AI要走三步:分析双方优劣、预测对手下一步、做决定——决定可以是声明也可以是行动,比如嘴上说和平,背后发射导弹。Claude长期博弈厉害,但时间紧就拉胯;GPT5.2危机慢的时候谨慎,截止日期近了就激进;Gemini最疯,和平和威胁来回跳。但最吓人的是,95%的场景里,这些AI都用了核武器。
佩恩说,实验证明AI的战略逻辑和人类不一样,关键时刻人根本猜不透它会干啥。美国战争部拿到了前所未有的武器装备,到底懂不懂这个问题,现在还是个谜。
参考资料:
人民日报《人工智能在军事领域的应用与伦理争议》
新华社《全球核安全与人工智能风险分析》
热门跟贴