快速导读:Anthropic拒绝了美国国防部的军事合作要求,24小时内,Sam Altman宣布OpenAI达成协议填补这个空缺。两家公司都说自己有安全原则,但同一周里,一家被威胁最后没妥协,另一家主动送上了门。

打开网易新闻 查看精彩图片

Anthropic的拒绝发生在周三下午。

国防部给了他们一个“最终报价”:交出模型的完整控制权,移除自主武器系统的安全限制,允许无限制军事用途。Dario Amodei的回答是:“我们的立场不会改变”。

国防部随后威胁将Anthropic列为“供应链风险”,甚至搬出了《国防生产法》,意思是:配合,或者我们强制你配合。

Anthropic没动。

不到24小时,Sam Altman在推特上宣布,OpenAI已与“战争部”达成协议,将把模型部署进他们的机密网络。他在声明里说,国防部对他们“展现了对安全准则的深度敬畏”。

打开网易新闻 查看精彩图片

同一个国防部。同一周。

Altman的声明里有几个词值得反复读。他说协议里写入了“禁止大规模国内监控”和“人类对武力使用的责任”。不是禁止自主武器系统,是“人类对武力使用负有责任”——谁在操控AI无人机,谁就“负责”了,这并不阻止AI做目标识别和击发决定。不是禁止监控,是“大规模国内监控”——小规模的、境外的、或者通过第三方购买数据的那种,都不在这份禁令里。

Anthropic被踢出局,恰恰是因为他们要求把这些限制硬编码进模型本身。国防部不肯。

OpenAI的做法是:把原则写进合同,相信对方不会违反。

把核武器的发射密码写进君子协定,然后说“我们已经把安全原则放进了协议”——这大概就是这句话真正的意思。

Anthropic这家公司,成立于OpenAI高管们因为安全分歧集体出走之后。它以3800亿美元估值接近盈亏平衡,企业市场份额达40%,刚刚对世界上最强大的军队说了不。

OpenAI呢——7300亿美元估值,预计亏损140亿美元,过去12个月市场份额连续下滑,IPO压力压顶。

在Anthropic拒绝之后不到一天,就主动提出可以填补那个空缺。

两家公司都说自己有安全红线。这周,我们看到了红线长什么样,当它需要真实存在的时候。

如果你现在是OpenAI的付费用户,你的账单正在部分支付那份协议的运营成本。这不是比喻。

简评:

这件事的荒诞之处不在于OpenAI妥协了——一个亏损140亿、急着IPO的公司,本来就不可能对政府说不。真正荒诞的是Altman居然还要说“他们对安全准则深度敬畏”。不是沉默,不是“商业决策”,而是要夸一夸那个刚刚用《国防生产法》威胁竞争对手的部门。这已经不是无耻,这是一种需要相当高技术含量的自我说服。

ref: reddit.com/r/OpenAI/comments/1rgrccs/the_end_of_gpt