“战争极其重大,绝不能仅仅交由军人来决断。”这句据说出自乔治·克列孟梭的名言,放在今天或许可以改写为:战争这一议题过于敏感,绝不能交由人工智能来管控。
当前地缘政治的剑拔弩张,加之今年二月底美国国防部长皮特·海格塞斯与全球顶尖人工智能企业“人择”公司负责人达里奥·阿莫代之间爆发的僵局,共同将这一争议推向了风口浪尖。
归根结底,核心问题在于:到底由谁来拍板人工智能的使用方式?又该遵循何种原则、依托何种制度框架,并辅以怎样的制衡机制?随着人工智能在现代冲突中日益成为常态,上述问题显得愈发迫在眉睫。
据外界披露,“人择”公司开发的大型语言模型“克劳德”,曾被应用于1月3日抓捕委内瑞拉总统尼古拉斯·马杜罗的行动之中。
不仅如此,美军在筹备2月28日针对伊朗的军事打击时,同样使用了该模型,其中甚至包括针对伊朗最高领袖阿里·哈梅内伊的“清除”行动。
美国政府与“人择”公司之间的剑拔弩张,源于后者拒绝解除对“克劳德”在军事应用上的一系列限制。这些限制明确规定:禁止在缺乏人类监督的情况下使用自主致命武器,且拒绝参与大规模监控系统。
阿莫代曾反复重申这些不可逾越的红线。他强调,现阶段的人工智能系统依然具有概率性、易错性且缺乏透明度,对其进行严格监管是必由之路。如果让这类系统成为关乎人类生死的最高裁决者,法治的根基必将遭到毁灭性打击。
然而在海格塞斯看来,这种谨慎无异于技术上的“觉醒主义”,是将国家安全作为道德原则的祭品。他认为,深陷残酷技术军备竞赛的美军,绝不能容忍一家私营承包商对政府使用其提供的工具指手画脚、附加条件。
正如美国创新基金会研究员迪恩·鲍尔在3月2日的简报中所指出的,海格塞斯的这种定性极具误导性。
早在拜登政府时期,“人择”公司就已经通过谈判达成了一项协议,授权在机密环境中有限度地使用“克劳德”。到2025年7月,特朗普政府甚至进一步扩大了这项协议的适用范围。时至今日,“克劳德”依然是唯一获准参与此类行动的人工智能模型。
曾为特朗普政府提供人工智能政策咨询的鲍尔强调了一个关键点:面对这一局面,美国国防部本可以动用传统的法律工具来加以管控,例如向承包商下达明确指令,或是进行有针对性的监管调整。
五角大楼却偏偏选择了一种极限施压的策略,强硬要求在合同中加入允许“任何合法使用”的霸王条款。
在这些看似中立的措辞背后,隐藏着一种深刻的制度断裂。
在特朗普政府倾向于绕开立法机构、以紧急状态进行统治的体制下,这类条款无异于将重新定义人工智能使用边界的权力,完全让渡给了行政部门一家。
特朗普政府之所以提出这样的要求,与其说是为了释放技术创新的活力,不如说是为了彻底摆脱一切形式的监督。而这恰恰发生在技术赋予其前所未有的扩张能力的关键时刻。
当行政部门扬言要将“人择”公司列为“供应链风险”时,这场原本的合同纠纷已经彻底演变为一场政治上的武力炫耀。
要知道,这一标签此前专门用于定性那些与敌对外国势力存在关联的企业。
这一决定的影响可谓深远。通过切断“人择”公司与国防生态系统之间的一切商业往来,美国政府显然将国家安全置于了私有财产和契约自由之上。
当政府公然要求企业抛弃其应当承担的伦理责任时,这也向整个美国的创新生态系统释放了一个令人不安的危险信号。
如今,人工智能的成熟度已经足以让其被立即部署到最为敏感的领域。这一刻恰逢美国处于这样一个政府的治下:它正日益明目张胆地逃避权力制衡,绕开立法机构,并将各种紧急状态下的例外情况常态化。
正如鲍尔所观察到的那样,对人工智能的“政府性”控制,正在逐步取代民主监督。
将日益强大的技术,托付给一个对异见容忍度越来越低的权力机构,无疑会将整个社会暴露在极其严重的政治风险之中。
这一问题的波及范围绝不仅仅局限于海外冲突。在美国本土,人工智能已经广泛渗透到国内安全政策之中,尤其是在移民管控领域。
诸如美国移民海关执法局等机构,正在大肆试验算法定位、决策支持工具以及全方位监控系统。
在这里,所谓“效率提升”的承诺,掩盖了一个更为令人担忧的现实:那些难以被质疑和推翻的自动化决策,正深植于那些行事作风日益脱离民主监督的机构内部。
海格塞斯与阿莫代之间的这场交锋,深刻地暴露出一个迫在眉睫的需求:在那些关乎国家安全、公民自由以及权力制衡的核心领域,我们必须尽快建立起一套能够对人工智能的使用进行有效裁决的政治与法律框架。
究竟是将技术的使用置于法律的约束之下、交由市场来调节,还是任由行政权力的专断逻辑来主导?这一选择,将成为决定自由民主制度未来命运的生死之问。
热门跟贴