一份2023年3月的联名信,让两位签名者在法庭上狭路相逢。一位是起诉方马斯克,另一位是他请来的唯一技术专家证人——加州大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)。这封信呼吁暂停人工智能研究六个月,而马斯克签字时,自己的营利性AI实验室xAI正在筹备中。

这种矛盾构成了这场庭审的底色。当罗素站在证人席上,他试图向陪审团和伊冯·冈萨雷斯·罗杰斯法官解释:为什么追逐通用人工智能(AGI)本身就是一场危险的游戏。

打开网易新闻 查看精彩图片

罗素在庭上说了什么

罗素的研究履历横跨数十年。他的任务是为陪审团建立技术背景认知,并论证AI的危险性足以令人担忧。

他列举了AI发展的多重风险:网络安全威胁、目标对齐(misalignment)问题,以及开发通用人工智能的"赢家通吃"特性。他明确指出,追求通用人工智能与保障安全之间存在内在张力。

但OpenAI律师的反对意见起了作用。法官限制了罗素的证词范围,他关于无约束AI存在性威胁的更深入观点未能公开陈述。

交叉质询环节,OpenAI律师着力确立一点:罗素并未直接评估该公司的企业结构,也未审查其具体安全政策。他的证词停留在技术原理层面,而非针对OpenAI的个案分析。

法庭外的完整立场

庭上受限,庭外罗素的观点更为锋利。他长期批评全球前沿实验室竞相率先抵达通用人工智能所形成的军备竞赛动态,并呼吁政府加强监管。

这种立场与马斯克诉讼的核心叙事形成微妙呼应——OpenAI背离了作为公益机构的初衷,沦为利润追逐者。但罗素本人的担忧超越单一公司:他针对的是整个行业的竞争结构。

马斯克的律师团队援引早期邮件和创始人声明,试图证明OpenAI曾定位为对抗谷歌DeepMind的公益制衡力量。罗素的证词本可为"AI足够危险、需要特殊治理结构"这一论点提供技术背书。

然而专家证人与诉讼策略之间的缝隙清晰可见。罗素谈的是技术风险,官司打的是契约违约。当OpenAI律师强调他未评估具体公司结构时,这种错位被放大。

签名者的悖论

2023年那封暂停信本身已成为科技史的一个注脚。马斯克签名之际,xAI的启动计划已在推进。这种"呼吁别人刹车、自己踩油门"的行为模式,在庭审语境下被重新审视。

罗素的签名则没有这类矛盾。他的学术立场一以贯之:通用人工智能竞赛需要外部约束。但当他作为马斯克方的唯一技术证人出庭,这种纯粹性被卷入诉讼的攻防逻辑。

法官和陪审团面临的核心问题是:如何衡量这位专家证词的分量?他的技术权威是否自动转化为对OpenAI组织形态的道德指控?

OpenAI的辩护策略很聪明——不挑战罗素的技术资历,只切割其证词与本案具体争议的相关性。如果专家谈论的是行业普遍风险,而非被告的特殊过错,那么他的证词对原告主张的证明力就被削弱。

通用智能竞赛的结构性困境

罗素在庭上触及的"赢家通吃"特性,是理解当前AI格局的关键。通用人工智能被设想为具备人类水平通用认知能力的系统,率先突破者可能获得难以追赶的优势。

这种预期创造了强大的先发激励。实验室有动机加速研发、压缩安全测试周期、在监管框架成型前抢占市场。罗素所指的张力——追求通用人工智能与保障安全之间的冲突——由此成为结构性问题,而非个别公司的道德选择。

但诉讼的局限性在于,它只能处理合同与承诺,难以触及行业动力学。马斯克诉OpenAI的核心是"非营利承诺是否被违背",而非"通用人工智能竞赛是否危险"。罗素的证词像是一把尺寸不合的钥匙,试图打开一扇形状不同的门。

这种错位或许解释了为何法官限制其证词范围。法庭不是政策研讨会,专家证词必须与待决法律问题具有足够关联。

监管呼吁与司法现实的距离

罗素长期主张的政府加强监管,在美国当前的立法节奏中显得遥远。欧盟《人工智能法》已生效,美国则仍在碎片化的行政命令与州级立法中摸索。

庭审暴露的空白是:当行业自我监管的承诺遭遇商业竞争压力,现有法律工具能否有效约束?马斯克的诉讼试图以合同法路径填补这一空白,但其成功取决于对早期文件的历史解释,而非对技术风险的前瞻评估。

罗素的出庭因此具有象征意义。他是庭审中唯一试图将讨论从技术细节提升到存在风险层面的声音,尽管这一尝试被程序性限制所约束。

对于旁听席上的科技从业者,这一幕或许暗示了更深层的焦虑:当最懂技术的人开始恐惧技术,而恐惧本身成为诉讼筹码,我们究竟在为何种未来下注?

这场庭审真正测试的是什么

罗素的证词价值,最终取决于陪审团如何理解"危险"与"违约"之间的逻辑链条。如果OpenAI的技术确实如专家所言具有系统性风险,这是否意味着它的组织形态转换更具可责性?还是恰恰相反——正因为风险巨大,商业化筹集资源才成为必要?

马斯克的诉讼策略似乎押注于前者:危险技术需要特殊的公益治理结构,背离这一结构即构成背叛。但OpenAI可以反驳:危险技术恰恰需要强大的商业引擎来支撑安全研究,非营利模式无法匹配所需的算力与人才成本。

罗素本人未必认同后一论点,但他的证词为双方提供了各自解读的空间。他确认了通用人工智能竞赛的危险性,却未裁决何种组织形态更能应对这种危险。

这种开放性或许是专家证词的宿命。技术专家可以描述风险图景,却无法替代社会选择治理路径。法庭的艰难之处在于,它必须将这种开放性压缩为二元判决:违约,或未违约。

我们何时认真对待"末日论者"

原文标题提出的这个问题,在庭审语境下获得了具体形态。罗素是否属于"末日论者"(doomer)?他2023年的暂停信签名、他对通用人工智能军备竞赛的批评,都指向对技术失控的深切忧虑。

但他在庭上的表述是克制的:列举风险类型,指出张力存在,而非预言文明终结。这种克制可能是策略性的——过度戏剧化的证词反而削弱可信度——也可能反映了他对司法场域的适应。

更尖锐的问题是:当"末日论"成为诉讼工具,它的说服力会增强还是削弱?马斯克同时签署暂停信和启动xAI的行为,为这个问题提供了讽刺性注脚。

科技行业的观察者熟悉这种话语模式:公开呼吁审慎,私下加速布局。罗素的困境在于,他的专业声誉被卷入这种模式的法律化表达,而他的证词边界被严格限定在技术层面,无法触及原告本人的行为一致性。

清单:这场庭审暴露的五个张力

一、技术风险与法律诉因的错位

罗素描述的是通用人工智能的系统性危险,马斯克起诉的是合同违约。两者共享对OpenAI的批评姿态,却指向不同的问题域。法庭能否、应否将技术风险认知转化为对组织形态的法律评价?这是本案的深层结构难题。

二、专家权威与个案关联的切割

OpenAI律师的交叉质询策略精准:不挑战罗素的学术地位,只质疑其证词与本案的具体相关性。这种切割暴露了专家证词在复杂诉讼中的脆弱性——你可以是领域权威,却未必是本案的适格证人。

三、公益理想与商业现实的冲突

早期文件中的"公益制衡"承诺,与当前千亿估值的营利实体之间,存在难以弥合的叙事断裂。罗素的证词本可为"危险技术需要特殊治理"提供支持,但无法解释为何这种治理必须是非营利形式。

四、监管呼吁与司法能力的落差

罗素主张的政府加强监管,在美国联邦层面尚未成型。法庭被迫以个案判决回应结构性问题,这种能力落差使得庭审更像是一场关于未来的象征性辩论,而非对技术治理路径的实际裁决。

五、签名者的行为一致性质疑

马斯克与罗素共享2023年暂停信的签名者身份,却走向不同的行动路径。这种分裂在技术社群中普遍存在:对风险的认知与对风险的应对,往往受制于竞争压力和组织利益。庭审成为观察这种分裂的显微镜。

未完成的论证

罗素被限制的证词,如同这场庭审的隐喻。关于通用人工智能最危险的设想——存在性风险、目标错位导致的失控场景——被程序性异议挡在法庭之外。

这留下了一个悬置的问题:如果最懂技术的人无法在法律场域完整陈述其忧虑,社会通过何种机制来评估和回应这些忧虑?庭审的判决将回答合同解释问题,却难以触及这个更广泛的治理命题。

对于25-40岁的科技从业者,这一幕或许具有特殊的警醒意义。你们身处构建这些系统的行业,既理解技术加速的诱惑,也感知安全审慎的重量。罗素的受限证词暗示:当这两种价值冲突被提交给外部裁决者时,技术话语本身可能被程序性规则所过滤。

马斯克诉OpenAI的终局,无论胜负,都不会终结通用人工智能竞赛。但它可能确立一个先例:关于技术风险的公共讨论,在何种程度上可以转化为法律问责。罗素的出庭是一次试探,其边界已被标注。

当法官和陪审团退庭商议,他们权衡的不仅是邮件真伪与承诺含义,还有一个前置判断:这位研究AI数十年的专家,其恐惧是否值得被认真对待——以及,在法庭的语境中,"认真对待"究竟意味着什么。

如果通用人工智能的军备竞赛确实如罗素所言具有系统性危险,而现有的法律与监管框架无法有效约束这种竞赛,那么技术从业者应当如何定位自己的角色?是竞赛的参与者、审慎的呼吁者,还是某种尚未被发明的治理机制的构建者?这个问题,庭审无法回答,但每一个在场外阅读此案的人,都无法回避。