打开网易新闻 查看精彩图片

美国五角大楼正在推动一场人工智能领域的权力游戏,而这场游戏的赌注是人类未来的安全与伦理底线。最近,国防部与多家顶级AI公司之间爆发了一场激烈的博弈,表面上看是关于技术部署的谈判,深层却是一个更为深刻的问题:谁有权决定最强大的AI工具如何被使用?这场冲突正在重塑科技与军事之间的关系,也在考验我们社会对权力制约的承诺。

这不仅仅是一场商业谈判,它关乎AI时代下的文明走向。

权力的扩张:从合法到"无限"

在表面的政治修辞下,五角大楼的真实意图逐渐显露。根据美国防长赫格塞思本月发布的AI战略备忘录,国防部官员辩称,只要符合美国法律,政府就应该能够部署商用AI技术,而不受企业的任何使用政策约束。换句话说,五角大楼想要的不仅是AI工具的访问权,而是"无限制"的使用权。

这个立场听起来似乎合理,但实际上它在推动一种危险的逻辑。法律框架与伦理责任之间存在鸿沟,仅仅因为某件事在法律上"允许",并不意味着在道德上就应该进行。不过五角大楼显然认为这种区分无关紧要。

为了推进这一议程,国防部采取了多管齐下的策略。OpenAI已经妥协了。该公司同意将ChatGPT的定制版本部署在GenAI.mil平台上,这个平台拥有超过300万名军民用户。谷歌也已经放弃了对AI军事应用的原则性反对,删除了其使用政策中关于禁止"造成整体伤害"和"违反国际准则的监控"的条款。马斯克的xAI已经准备好向五角大楼提供其Grok模型。

但Anthropic不同。这家公司坚守着一道防线,而这道防线正在激怒整个美国政治权力阶层。

Anthropic的最后堡垒:2亿美元的赌注

Anthropic面临着一个价值2亿美元的国防合约,但公司高管拒绝了五角大楼的核心要求。他们坚持自己的Claude模型不能被用于"自主致命武器"的瞄准或"国内监控"用途。这些看似具体的限制,实际上反映了AI公司最后的伦理底线。

这家公司的立场激怒了五角大楼和白宫。一位不愿透露姓名的官员告诉路透社,他们"正在着手在所有密级部署前沿人工智能能力"。言外之意很清楚:Anthropic的道德护栏是障碍,而不是特征。

Anthropic的困境是现代科技公司面临的最尖锐的矛盾。一方面,拒绝国防部意味着放弃巨大的商业机会,也可能在政治上付出代价。五角大楼既是庞大的客户,也是国会的政治力量。另一方面,屈服意味着与公司的核心价值观背离,可能导致员工的大规模离职和声誉的永久损害。

一些OpenAI员工的反应也很有启发意义。他们虽然表达了对军事应用的担忧,但同时也担心如果公司退出国防领域,竞争对手会获得优势。这反映了现代资本主义的典型困境:个人的伦理立场与企业的竞争压力之间的紧张关系。

历史的反复:Google转身的启示

有趣的是,这不是科技公司第一次面对这种压力。谷歌曾因参与美国军方的"棱镜"项目而引发内部大规模抗议,最终导致公司决定不续签政府合同,并制定了限制AI军事应用的原则。但如今,这些原则已被悄然删除,谷歌已经全面拥抱国防市场。

这个历史转折提供了一个重要的教训。伦理立场在持续的政治与商业压力下往往是脆弱的。一旦某家公司打破禁区,其他公司就会感到被迫跟进,以免失去市场机会。这创造了一种"伦理崩溃"的动态,最终所有的道德护栏都可能被拆除。

更深层的问题:民主与权力

这场冲突的真正问题不是技术本身,而是关于权力与监督。五角大楼要求的"无限制部署权"实际上是在要求一种权力的扩张,而不受任何民间机构的制约。这在一个民主社会中提出了根本性的问题。

如果国防部可以不受任何限制地使用最先进的AI进行自主武器瞄准和国内监控,那么民主制衡的许多现有形式就会被虚化。民间企业、公民社会和国会监督机构都会失去他们的影响力。这不仅仅是关于Anthropic是否应该妥协的问题,而是关于在一个民主社会中,权力应该如何受到制约的问题。

未来的岔路口

如今,这场冲突处于关键时刻。Anthropic正在为它的原则而战,但压力正在逐步增加。其他公司的妥协会使Anthropic的立场看起来越来越像是商业上的自杀。政治力量也在这一边施加压力。

但如果Anthropic坚守底线,它可能会为其他公司树立一个先例。它可能证明,在巨大的经济压力下,保持伦理立场是可能的。它也可能促发更广泛的社会讨论,关于民主社会中权力的适当限制。

反过来,如果Anthropic妥协,它不仅会失去其道德权威,还会加速一个过程,使得AI的最强大形式最终完全被军事和安全国家所控制,而不受民间社会的任何制约。

这个选择不仅关乎一家公司的商业命运,也关乎我们整个社会对科技权力的态度。在这个意义上,Anthropic的困境是我们所有人的困境。