打开网易新闻 查看精彩图片

据美联社报道,美国知名人工智能(AI)公司Anthropic提起诉讼,阻止特朗普当局实施一项非法的“报复行动”,而这一“报复行动”的原因是该公司拒绝允许其技术被无限制用于军事用途

本周一,Anthropic向联邦法院提起诉讼,要求撤销五角大楼上周将这家人工智能公司列为“供应链风险”的决定(Anthropic asked federal courts on Monday to reverse the Pentagon’s decision last week to designate the artificial intelligence company a “ supply chain risk.”)。

该公司还寻求废除唐纳德·特朗普总统下达的、要求联邦雇员停止使用其AI聊天机器人Claude的行政命令。

这一法律挑战加剧了一场异常公开的争议,争议焦点是 AI 如何用于战争和大规模监控(The legal challenge intensifies an unusually public dispute over how AI can be used in warfare and mass surveillance)。

打开网易新闻 查看精彩图片

这场争议也波及了Anthropic的科技行业竞争对手,尤其是ChatGPT开发商OpenAI。就在美国当局因Anthropic的立场对其实施处罚数小时后,OpenAI 就与五角大楼达成了合作协议。

周一,Anthropic分别提起两起诉讼,一起在加州联邦法院,另一起在华盛顿特区联邦上诉法院,分别对当局针对这家总部位于旧金山的公司所采取行动的不同方面提出质疑(each challenging different aspects of the government’s actions against the San Francisco-based company)。

Anthropic在诉讼中表示:“这些举措史无前例且不合法。宪法不允许当局动用其庞大权力,因一家公司受保护的言论而对其进行惩罚。”

“没有任何联邦法规授权采取此类行动。Anthropic将司法途径作为最后手段,以维护自身权利并制止行政部门的非法报复行动(Anthropic turns to the judiciary as a last resort to vindicate its rights and halt the Executive’s unlawful campaign of retaliation)。”

打开网易新闻 查看精彩图片

Anthropic 曾表示,其坚持寻求限制自身技术被用于对美国民众的大规模监控及全自动武器领域(Anthropic said it sought to restrict its technology from being used for mass surveillance of Americans and fully autonomous weapons)。

而美国国防部长皮特·赫格塞思及其他高级官员公开坚称,该公司必须接受Claude的“所有合法”用途,并威胁若Anthropic不遵守将予以处罚,同时在社交媒体上谴责该公司及其首席执行官达里奥·阿莫迪

美国当局将该公司列为“供应链风险实体”,切断了与Anthropic的国防业务合作,这一权限原本旨在防范外国对手危害国家安全系统。

这是目前已知的美国联邦当局首次对一家美国自己的公司使用该认定(It was the first time the federal government is known to have used the designation against a U.S. company)。

据Anthropic诉讼文件显示,赫格塞思在3月4日致Anthropic的信中称,此举“对保护国家安全至关重要(necessary to protect national security)”。

打开网易新闻 查看精彩图片

特朗普还表示,将下令联邦机构停止使用Claude,不过他给了五角大楼六个月时间,逐步停用这款已深度嵌入机密军事系统的产品,其中包括用于伊朗战争的相关系统。

在相关部门官员下令员工停用Claude后,Anthropic的诉讼还将美国财政部、国务院等其他联邦机构列为被告( including the departments of Treasury and State, after agency officials ordered employees to stop using Claude)。

纽约法学院教授迈克尔·帕斯特表示,Anthropic在该案中提出了多项有力的第一修正案与正当程序主张,而此案“已升级到令人难以理解的程度”。

帕斯特曾担任纽约市总法律顾问,参与起草该市的技术合同(a professor at New York Law School who previously worked as a New York City general counsel helping to craft its technology contracts)。

打开网易新闻 查看精彩图片

帕斯特称:“我从未见过这样的案子。我们从未想过,在谈判陷入僵局时,会以近乎摧毁公司的方式进行威胁(It would never have struck our minds that, when we were having difficulty in a negotiation, we would threaten the company essentially with destruction)。”

尽管Anthropic正对抗五角大楼的举措,但该公司仍试图向企业及其他政府机构说明,特朗普当局的“供应链风险”认定范围有限,仅影响军事承包商在为国防部工作时使用Claude的情形。

厘清这一区别对非上市的Anthropic至关重要,因其今年预计140亿美元收入中,大部分来自使用Claude进行计算机编程及其他任务的企业与美国当局机构

近期一份投资公告显示,该公司估值达3800亿美元,其中逾500家客户每年为Claude向Anthropic支付至少100万美元。

打开网易新闻 查看精彩图片

Anthropic周一在声明中表示:“寻求司法审查不会改变我们利用 AI 维护国家安全的长期承诺,但这是保护公司、客户及合作伙伴的必要举措(but this is a necessary step to protect our business, our customers, and our partners)。”

诉讼文件称,自2021年由阿莫迪和其他六名OpenAI前员工创立Anthropic以来,人工智能安全和"为人类带来积极成果"一直是该公司的核心使命。

公司在诉讼中称,其使用政策始终禁止“无人类监督的致命自主战争及对美国民众的大规模监控(lethal autonomous warfare without human oversight and surveillance of Americans en masse)”。

Anthropic表示,从未在这些应用场景中测试过Claude,也不确信其产品若用于支持致命自主战争,能否“可靠、安全地运行”

与此同时,该公司允许军方以平民无法使用的方式应用Claude,包括军事行动及分析“合法收集的外国情报信息”。

打开网易新闻 查看精彩图片

直到近期,Anthropic仍是科技同行中唯一获准向机密军事系统提供AI模型的企业(Until recently, Anthropic was the only of its tech industry peers approved to supply its AI model to classified military systems)。

这场争议已促使五角大楼寻求将Claude的相关工作转移至谷歌Gemini、OpenAI的ChatGPT及马斯克的Grok。

Anthropic在诉讼中称,特朗普当局的举措损害了其声誉,危及了该公司与其他企业价值“数亿美元”的合同,并试图“摧毁这家全球增长最快的私营企业之一所创造的经济价值”。

相反,这场抗争提升了Anthropic在部分客户与科技从业者中的声誉,他们支持该公司拒绝向特朗普当局压力妥协的立场(Conversely, the fight has boosted Anthropic’s reputation among some customers and tech workers who sided with the company’s refusal to budge to pressure from the Trump administration)。

打开网易新闻 查看精彩图片

阿莫迪的道德立场更显突出,因其劲敌OpenAI首席执行官萨姆·奥尔特曼急于用ChatGPT取代五角大楼的Claude,奥尔特曼事后承认此举仓促且带有投机性(Altman later admitted was rushed and seemed opportunistic)。

近期,因为Anyhropic 在坚守AI安全底线上的做法和态度,Claude的用户下载量激增,人气首次超越知名度更高的ChatGPT与Gemini

企业如何设定安全准则,也持续影响着 AI行业的人才留存竞争。OpenAI机器人部门主管凯特琳·卡利诺夫斯基正是因为自己公司与五角大楼的合作协议而辞职。

卡利诺夫斯基于周末在社交媒体上写道:“这并非一个轻松的决定。AI 在国家安全中扮演着重要角色。但未经司法监督的美国民众监控、未经人类授权的致命自主武器,这些红线本应得到更审慎的考量。”