2月26号那天,华盛顿的办公室里火药味比好莱坞大片还浓——不是真炸,是两边的态度炸了。一边是美国防长赫格塞思拍着桌子喊:“周五下午5点01分前,必须让军方无限制用你们的AI,不然后果自负!” 另一边是Anthropic CEO阿莫迪,直接甩了封公开信:“威胁没用,违背良知的事我们不干。” 这哪是商业谈判?分明是AI时代的“价值观battle”——2亿美元合同+军方铁腕, vs 一家公司的安全底线,到底谁能扛到最后?
先说说Anthropic这家公司,骨子里就带点“叛逆”。2021年,阿莫迪带着一群人从OpenAI跑出来,为啥?受不了OpenAI跟微软深度绑定,怕商业利益压过AI安全。从成立那天起,他们就给自己贴了个标签:“负责任的AI”——技术要牛,但安全绝对不能丢。
去年夏天,他们跟五角大楼签了2亿美元的合同,成了首家进美军机密系统的AI公司,这对初创公司来说是天大的认可。但签合同的时候,他们留了后手:绝对不碰两类场景——美国国内大规模监控,还有完全自主武器系统。
阿莫迪说过,有些AI用途会削弱民主,而且技术还没到能随便用的安全程度。今年1月更绝,美军突袭委内瑞拉,居然把Claude用来规划行动流程,这明显碰了Anthropic的红线啊——虽然合同里没说具体军事行动,但自主武器相关的擦边球,他们绝对不能忍。消息一曝,Anthropic直接找五角大楼求证,这矛盾一下就炸了。
五角大楼这边的态度,简单粗暴到像“买东西不看卖家脸色”。防长赫格塞斯跟阿莫迪说:“我们买波音飞机,波音不会管飞机往哪飞吧?你们的AI,军方要用来所有合法用途,轮不到你们指手画脚。” 发言人帕内尔还补刀:“我们没兴趣监视美国人,也不想搞自主武器,就是要所有合法用途。”
但问题来了——谁来定义“合法”?今天合法的,明天政策变了算不算?谁来监督军方怎么用?毕竟军方的行动很多是机密,外人根本没法插眼,这就是Anthropic最担心的地方。
为了逼Anthropic就范,防长直接扔出三把刀。第一刀:给你贴“供应链风险”标签——这以前都是给华为这种外国公司的,美国公司还是头一次。一旦贴上,不仅2亿合同没了,所有跟军方合作的公司都得证明自己没用过Claude,这等于断了Anthropic的军方合作路。
第二刀:拿《国防生产法》说事——这法案能让总统直接接管企业,等于强行征用技术,拆光所有安全护栏。阿莫迪都吐槽了:“一边说我们是安全风险,一边又说Claude对国家安全重要,这不矛盾吗?”
第三刀:定死周五下午5点01分截止——这哪是谈判,明明是最后通牒,连多给一天的余地都没有。
现在Anthropic被架在火上烤,左右为难。阿莫迪的公开信写得挺妙:硬气说“违背良知的事不干”,但又留了余地——希望国防部重新考虑,还是想在保安全底线的前提下继续合作。甚至还说,如果国防部终止合同,他们会帮着过渡,别影响军事行动。
这种“既要硬刚又怕分手”的样子,暴露了真实困境——2亿美元不是小数目,丢了军方客户,估值、融资、商业化都会受影响。而且你看,OpenAI、谷歌、xAI都同意军方随便用(只要合法),就Anthropic还在硬顶,这在同行里显得有点“另类”。
但妥协了会咋样?今天同意无限制用,明天军方拿Claude干啥,他们还能管吗?一旦开了这个口,“负责任AI”的人设直接崩。据说Anthropic内部员工最近都挺焦虑,有人说“要是妥协了,我们当初从OpenAI走出来图啥?” 有人则担心丢了合同失业,但更多人还是站在CEO这边,毕竟“负责任AI”是公司的根。
阿莫迪2023年说过,AI有10%到25%的可能毁灭人类——后来虽然否认是末日论,但对风险的警惕,早就刻在Anthropic的基因里。现在这基因,正被国家机器往死里压。
参考资料:新华社 AI伦理:科技企业与军方合作的边界
热门跟贴