一家客户名单包括特朗普的华尔街顶级律所,在破产法庭提交的6份法律文件中,被对手抓出了AI编造的虚假判例——其中一份"判例"根本不存在。这不是技术demo事故,是价值数百万美元的法律服务交付事故。

01 周六的道歉信:一场精心计算的危机公关

打开网易新闻 查看精彩图片

事件爆发于6月21日周六。Sullivan & Cromwell(以下简称S&C)重组业务联席主管Andrew Dietderich向联邦法官Martin Glenn递交了一封措辞谨慎的道歉信。

这封信的 timing 值得玩味:周末紧急提交,赶在法庭工作日之前抢占叙事主动权。Dietderich在信中写道:「我们对发生此事深感遗憾」。

但信的核心不是道歉,是防御。Dietderich花了大量篇幅强调S&C的AI治理框架——「规范法律工作中AI工具使用的培训要求」,以及「清晰且严格」的政策设计。

关键措辞是:「未被遵守」。政策没问题,执行层失守。这是典型的机构危机话术:将系统性风险转化为个体违规。

他同时承诺「立即补救措施」,包括启动内部审查,并提交了修正后的文件版本。

02 对手如何"钓鱼":Boies Schiller的精准打击

真正让事件升级的,是对手律所Boies Schiller Flexner的战术选择。他们没有私下沟通,而是直接向法庭提交动议,将S&C的失误公开化。

这种"告老师"策略在高端诉讼中并不常见。通常,顶级律所之间存在某种默契:发现对手低级错误时,先私下通气,保留人情筹码。Boies Schiller选择公开羞辱,说明要么双方关系已破裂,要么他们认为此事的战略价值远超人情成本。

他们抓到了什么?根据法庭记录,S&C提交的文件存在三类错误:

第一,直接误引美国破产法条文。不是解释偏差,是文本层面的错误引用。

第二,判例摘要失真。引用的其他案件判决,要么总结错误,要么案件身份识别错误。

第三,虚构判例。Boies Schiller的律师发现,S&C引用的一份"判例"根本不存在——AI完整编造了案件名称、法院和判决要点。

这三类错误的严重程度递增。前两类属于"用错了",第三类属于"编出来的"。在普通法体系中,判例是推理的基石。引用虚构判例,等于在数学证明中引用不存在的定理。

03 幻觉的供应链:从ChatGPT到法庭文件

S&C没有披露具体使用了哪款AI模型。但《金融时报》援引接近该律所的消息源称,S&C持有OpenAI ChatGPT的企业版授权。

这意味着什么?企业版通常包含更严格的合规控制和审计日志,理论上比个人版更难出现"漏管"。但企业授权只解决工具层面的问题,不解决工作流层面的问题。

法律AI的工作流通常是这样:律师用AI生成初稿或研究摘要,然后人工复核。复核的颗粒度决定了最终质量。S&C的事件表明,他们的复核机制在AI输出面前失效了——或者更可能的是,复核者没有获得识别AI幻觉的训练。

这不是S&C独有的问题。原文提到,Morgan & Morgan等其他大型律所也曾因AI失误蒙羞。法官对这类错误的容忍度正在快速下降:已有律师因AI编造引用被制裁,被威胁提交州律师协会处理,甚至被要求写信给法学院院长解释"他们如何搞砸的"。

惩罚的创意化本身是一种信号:法庭将AI幻觉视为专业能力缺陷,而非技术不可抗力。

04 为什么顶级律所也会踩坑?

理解这个事件,需要拆解法律服务的一个隐性结构:时间压力与质量控制的权衡。

破产案件尤其如此。S&C的重组业务组处理的是高频率、高复杂度的交易,截止日期以小时计。AI的诱惑在于压缩研究时间——原本需要数小时的判例检索,可能压缩到几分钟。