文 春公子

俄乌战场上,无人机自主识别目标、AI算法指挥火炮集群齐射的场景,已经不再是科幻电影。未来的战争,必将是人工智能技术驱动的现代战争,这一点已成为残酷的现实。而就在我们眼前,一场关于AI技术灵魂的争夺战,正在美国硅谷的实验室与五角大楼的会议室之间激烈上演。

最近,一条重磅消息炸开了锅:明星AI公司Anthropic与美国军方一项价值2亿美元的合作项目,正因核心分歧而告急!这可不是普通的商业纠纷,而是触及了一个终极问题——最强大的人工智能,究竟该不该被装上武器的扳机?

事实上,美国国防部数月来一直在向Anthropic、OpenAI、谷歌和马斯克的xAI等四大巨头施压,要求它们取消模型的安全限制,允许军方将AI用于“所有合法用途”。这“合法用途”的潜台词,就是武器研发、情报破译乃至直接参与战场杀戮。

打开网易新闻 查看精彩图片

先说说这事的导火索。

今年1月,美军对委内瑞拉发动军事行动,强行控制了总统马杜罗及其妻子,把他们带到了美国。这本是一则国际新闻,但《华尔街日报》后来爆出一个细节:这次行动中,美军使用了Anthropic的AI模型Claude。

问题出在哪?Anthropic的使用政策写得明明白白:禁止将Claude用于“促成暴力、研发武器或实施监控”。美军这次行动涉及轰炸加拉加斯多个地点,Claude到底扮演了什么角色?外界不得而知。但知情人士透露,事后Anthropic一名高管专门联系合作方Palantir,问Claude有没有被用在这次行动里。

这一问,把双方矛盾彻底点燃了。

五角大楼的态度很直接:你问我用没用?我用就用了,怎么了?更重要的是,你凭什么管我用在哪儿?

打开网易新闻 查看精彩图片

军方要“所有合法用途”,AI公司死守两条红线

现在双方谈了好几个月,分歧越来越明显。

五角大楼向四大AI公司——Anthropic、OpenAI、谷歌和xAI——提出一个要求:允许军方把AI工具用于“所有合法用途”。这听起来挺合理,但“合法用途”四个字,在军方语境里范围太宽了:武器研发、情报搜集、战场作战、自主打击……只要不违反美国法律,全在范围内。

Anthropic不肯接受这个条款。他们坚持两条红线:第一,不能用于对美国人的大规模监控;第二,不能用于研发或部署完全自主的武器。说白了,就是AI不能自己决定杀人,不能盯着美国老百姓不放。

其他三家呢?OpenAI、谷歌和xAI已经同意在非机密任务中解除部分限制。谷歌更是悄悄放弃了自己当年的“不作恶”原则。只有Anthropic还在硬扛。

五角大楼已经不耐烦了。一位匿名官员放话:“我们会让他们为逼我们出手付出代价。”“一切皆有可能,包括彻底终止合作。”

打开网易新闻 查看精彩图片

马斯克最担心的事,正在变成现实

说到这儿,必须提一个人——马斯克。

当年他多次公开反对AI武器化,说这玩意儿比核弹还危险。那时候不少人觉得他是杞人忧天,现在看呢?

美国国防部最近刚签了三份总价值6亿美元的合同,给Anthropic、谷歌和xAI,要搞新一代“代理型AI”。什么叫代理型AI?就是能自主理解目标、制定计划、执行任务,还能根据情况变化自我调整。翻译成人话:给它一个任务,它能自己想办法干掉目标,不需要人插手。

五角大楼说得挺直白:这套系统将“能够自主执行以前需要人类参与的任务”,不仅包括管理和控制,还包括“战斗任务的部分或全部自动化”。这话什么意思,不用我多解释了吧?

国防部长赫格塞思也放话了:国防部不会“采用那些不允许用户参与战争的人工智能模型”。换句话说,你要是不让我用AI打仗,我就不跟你玩了。

Anthropic现在扛着,能扛多久?难说。毕竟OpenAI和谷歌已经妥协了,市场在那儿,资本在那儿,军方的压力也在那儿。阿莫代伊(Anthropic CEO)当初从OpenAI出来,就是想做更负责任的AI。可现在,他面对的是美国国防部。

打开网易新闻 查看精彩图片

写到这里,想起一句话:技术没有善恶,但使用技术的人有。

俄乌战场上,AI武器已经证明了自己的价值。无人机自主识别目标、算法分析战场情报、系统辅助决策——这些不再是科幻片,是正在发生的现实。问题是,当AI开始自己决定扣动扳机的那一天,谁来为它的决定负责?

五角大楼想要所有合法用途,这个合法由谁定义?Anthropic坚守的两条红线,在利益面前能撑多久?

马斯克当年说,AI是人类文明最大的威胁之一。现在看来,这个威胁不是来自机器觉醒,而是来自人类自己迫不及待地把杀人的权力交给机器。

2亿美元的合同,不过是这场博弈的冰山一角。真正的大戏,才刚刚开始。