马斯克站在证人席上,开口第一句话就把法庭变成了科幻片场。

「最糟糕的情况是终结者场景。」他说的是那部机器屠杀人类的电影。这句话出现在他与OpenAI的官司中——一场原本关于公司结构变更的诉讼,被他重新定义为关乎人类存亡的安全辩论。

打开网易新闻 查看精彩图片

2015年:非营利承诺的诞生

故事要从九年前说起。2015年,马斯克与萨姆·奥尔特曼等人共同创立OpenAI,定位是「非营利组织」,使命明确:确保人工智能造福全人类,而非被少数公司垄断。

这个设定在当时有其特殊背景。谷歌刚刚收购DeepMind,业界担忧AI研究被封闭在科技巨头的围墙内。OpenAI的「开放」二字,承诺的是透明、共享、安全优先。

马斯克在法庭上反复强调这个起点。他描述当时的共识:开发通用人工智能(AGI,即具备人类水平推理能力的AI)必须极度谨慎,速度要让位于安全。

「最大的风险是AI杀死我们所有人。」他在证词中说,「这是我们必须避免的结果,需要对系统开发方式极度谨慎。」

这种表述不是修辞夸张。马斯克将「安全」嵌入公司结构的底层逻辑——非营利意味着没有股东利润压力,可以拒绝「为了快而快」。

2019年:营利转型的裂痕

转折点发生在2019年。OpenAI宣布创建「有限营利」子公司,接受微软10亿美元投资(后增至130亿美元),并转为混合架构:非营利母公司控制营利实体。

官方解释很实际:训练大模型需要算力,算力需要钱,非营利募捐跟不上技术迭代速度。

马斯克在法庭上的反驳更尖锐:这是背叛。他声称,转型违背了创始协议,将OpenAI变成了「闭源、利润最大化的微软子公司」。

这里有个关键细节。马斯克本人曾在2018年提出接管OpenAI,遭到拒绝后退出。奥尔特曼的律师在庭审中多次提及这一点,暗示诉讼动机不纯——既然你自己想控制OpenAI失败,现在为何指责别人追求控制?

马斯克的回应是把个人恩怨升格为公共议题:「我离开是因为我认为成功的概率很低,而且我不同意团队选择的道路。」

他的核心指控从未改变:营利化改变了激励结构。当公司需要为投资人回报负责时,「安全」与「速度」的天平必然倾斜。

2022-2023年:ChatGPT引爆的竞赛

时间快进到2022年11月。ChatGPT发布,两个月用户破亿,成为史上增长最快的消费级应用。

这场爆发彻底改变了AI行业的压力环境。谷歌紧急推出Bard,微软将GPT-4整合进全线产品,中国科技公司批量发布大模型。

OpenAI的转型决策在此刻获得事后合理性:如果没有微软的资金和算力支持,能否跟上这轮竞赛?

但马斯克在法庭上描绘的是另一幅图景:这正是他担心的「加速」场景。当竞争对手紧追不舍,公司是否有勇气慢下来?

「他们现在闭源,」马斯克强调,「而且是为了利润最大化。」

需要指出的是,OpenAI并未完全闭源。GPT-3.5等模型的API对外开放,但核心架构和训练数据不再公开。这种「半开放」状态,与2015年承诺的「开放」已有明显距离。

2023年:xAI的入局与立场复杂化

马斯克没有停留在批评者位置。2023年7月,他宣布创立xAI,直接竞争OpenAI。

这一举动让诉讼的动机问题变得微妙。奥尔特曼的律师在庭审中反复追问:一个AI公司的创始人,起诉竞争对手「不安全」,是否构成利益冲突?

马斯克的应对策略是将xAI定位为「更安全的替代方案」。他声称xAI的目标是「理解宇宙本质」,而非追求商业成功。但市场数据给出了不同画面:xAI已融资60亿美元,估值240亿美元,正在快速扩张。

庭审中的交锋揭示了更深层的分歧。马斯克认为,AI安全需要集中控制——由少数负责任的人掌握最强大模型。奥尔特曼则倾向于通过广泛部署来发现问题:「让更多人接触AI,才能更快发现风险。」

两种路径都有漏洞。集中控制可能导致独裁,广泛部署可能放大事故。但马斯克的诉讼选择了一个具体攻击点:OpenAI的转型是否违反了创始时的法律承诺?

2024年庭审:终结者场景的法律化

回到法庭现场。马斯克的「终结者」比喻不是随口一说,而是精心选择的叙事框架。

他将技术风险转化为可理解的灾难图景:不受控的AGI可能自主决策、自我复制、对抗人类。这不是马斯克独有的担忧——图灵奖得主杰弗里·辛顿、约书亚·本吉奥等AI先驱都表达过类似警告。

但马斯克的不同在于,他把这种担忧写进了诉状。他指控OpenAI的转型「增加了人类灭绝风险」,要求法院强制恢复非营利结构,并禁止将AGI技术授权给微软。

法律专家对此多持怀疑态度。合同违约需要证明明确的承诺被违反,而「造福人类」的表述过于模糊。此外,马斯克本人离开OpenAI多年,是否仍有起诉资格也是争议点。

但诉讼的法律胜算似乎不是首要目标。马斯克在证人席上花了大量时间解释AI风险的机制:递归自我改进、目标错位、工具趋同。这些技术概念通过「终结者」的比喻进入公众讨论。

「这不是关于钱,」他说,「这是关于未来。」

微软的角色:被遮蔽的第三方

庭审中一个较少被讨论但至关重要的维度是微软的位置。

微软与OpenAI的合作条款从未完全公开。已知的是:微软拥有OpenAI营利子公司49%的股权,有权获得75%的利润直至收回投资,之后比例下降。

更关键的是独家云供应协议:OpenAI的所有模型训练和运行必须在微软Azure上进行。这意味着,即使OpenAI想转向其他云平台,合同也禁止这样做。

马斯克在证词中暗示这种安排的深层风险:当AI基础设施被单一云服务商锁定,「开放」从何谈起?

微软不是诉讼被告,但其利益贯穿始终。如果法院裁定OpenAI必须恢复纯非营利结构,微软的130亿美元投资和独家协议将面临重新谈判。

这种三角关系揭示了AI行业的权力结构:模型层(OpenAI)、计算层(微软/英伟达)、应用层(各垂直行业)的博弈,正在重塑科技产业的版图。

安全与速度的永恒张力

剥离诉讼双方的个人恩怨,核心矛盾其实相当古典:技术创新中的安全与速度权衡。

OpenAI的辩护逻辑是线性演进:更多资源→更好模型→更快发现安全问题→更安全结果。营利化是手段,安全仍是目的。

马斯克的反驳是结构性的:一旦引入利润动机,安全就成为成本项。董事会面对「延迟发布损失市场机会」与「潜在未来风险」的选择时,前者总是更具体、更可量化。

这种张力在AI行业无处不在。2023年,OpenAI的「超级对齐」团队(负责确保超人类AI安全)因资源分配争议而解散,核心成员离职后公开批评公司「把产品发布置于安全研究之上」。

马斯克在庭审中多次引用这一事件作为证据。OpenAI的回应是:团队重组是正常调整,安全投入仍在增加。

双方都无法提供决定性的数据。AI安全研究的成果难以量化,「没有发生事故」既不能证明安全有效,也不能证明风险不存在。

法庭之外:监管真空的困境

这场诉讼暴露了一个更大的制度空白:当AI风险超越单一公司范畴,谁来裁决「足够安全」?

美国目前没有联邦层面的AI安全立法。欧盟的《人工智能法》侧重于应用场景分级,而非基础模型的开发控制。中国的算法备案制度关注内容安全,对AGI风险涉及有限。

马斯克在证词中承认:「我不认为政府现在有能力有效监管AI。」他的解决方案是诉诸法院——用私人诉讼填补公共治理的缺口。

这种策略的局限性很明显。法官可以解读合同,但难以裁决技术风险。即使马斯克胜诉,恢复非营利结构的OpenAI就能「更安全」吗?非营利组织同样可能追求技术突破、忽视长期风险。

更深层的问题在于:AGI的安全标准本身尚未建立。什么是「对齐」(alignment)?如何测试?谁来认证?这些基础问题没有行业共识,遑论法律定义。

诉讼的终局与行业的开局

无论判决结果如何,这场诉讼已经产生了实际影响。

它迫使OpenAI在公共话语中更多回应安全质疑。2024年,公司发布了「准备框架」(Preparedness Framework),承诺在模型发布前评估四类风险:网络安全、生物武器、说服能力、自主复制。虽然批评者认为框架约束力有限,但它确实存在。

它也将AI安全议题从学术圈推向主流商业讨论。科技公司的董事会开始设立AI伦理委员会,投资者开始询问「安全投入占比」,尽管这些措施的象征意义可能大于实质。

对于马斯克个人,诉讼强化了他作为「AI警示者」的公众形象——即使他同时运营着直接竞争的AI公司。这种矛盾性本身就是当代AI产业的缩影:批评者与建设者的身份重叠,理想主义与商业利益的边界模糊。

庭审的最后一天,马斯克被问及如果败诉会如何。他的回答回到了起点:「至少我尝试过阻止。」

这句话的修辞效果大于法律意义。但在这个技术变革速度远超制度响应能力的时代,「尝试阻止」本身或许就是一种必要的姿态——无论动机多么复杂,无论胜算多么渺茫。

下一步该关注什么

判决预计将在数月后出炉,但几个更关键的节点值得标记。

首先是OpenAI的治理结构变化。公司正在讨论是否将非营利母公司的控制权转化为股权,这将彻底消解「非营利」的法律形式。如果发生,将是比诉讼结果更实质性的转变。

其次是xAI的技术进展。马斯克承诺2024年底发布对标GPT-4的模型,其实际表现将检验「更安全替代方案」的可行性——或者揭示这只是一句竞争口号。

最重要的是监管动态。加州SB 1047法案(要求大模型开发者进行安全测试)的命运、联邦层面的AI安全研究所运作、国际层面的AI治理机制,将决定这场法庭辩论能否转化为制度性约束。

技术不会等待判决。但这场诉讼至少做了一件事:把「终结者场景」从科幻梗变成了需要回应的公共议题。在AGI真正到来之前,这种话语层面的争夺,可能就是最重要的战场。