一份提交给曼哈顿联邦破产法庭的文件,让拥有百年历史的华尔街顶级律所 S&C 颜面尽失。对手律所 Boies Schiller Flexner 在核查中发现,这份文件里引用的判例要么被错误总结,要么根本不存在——其中一个"案例"甚至从来就不是案例。

这是法律AI应用的标志性翻车事件。当 ChatGPT 生成的虚假引用撞上对手律师的放大镜,一场关于专业信任与技术边界的行业地震正在酝酿。

打开网易新闻 查看精彩图片

周六的道歉信:从傲慢到狼狈

事件曝光后,S&C 重组业务联席主管 Andrew Dietderich 在周六紧急致信联邦法官 Martin Glenn。「我们对此事深感遗憾,」Dietderich 在道歉信中写道。

这位高管在信中极力强调公司的AI管理制度「清晰且严格」,包括「法律工作中使用AI工具的培训要求」。但他也不得不承认:「相关政策在本次动议准备过程中未被遵守。」

这种辩解的脆弱性显而易见。一家服务过 Donald Trump 的顶级律所,其内部风控体系竟拦不住一份充斥着「幻觉引用」的法庭文件。更讽刺的是,错误是由对手律所主动揭发,而非自查发现。

Dietderich 声称已启动「立即补救措施」,包括审查AI幻觉如何逃过审核。修正后的文件后来提交至法院。但具体涉及哪款或哪些AI模型,律所并未说明。据接近该律所的人士向《金融时报》透露,S&C 持有 OpenAI ChatGPT 的企业许可证。

对手律所的「猎杀」:新战术诞生

Boies Schiller Flexner 的律师们做了件简单却致命的事:逐条核实引用。他们发现,S&C 的动议在某些段落直接错误引用了美国破产法典,对其他案件的判决引用要么总结失准,要么张冠李戴。

最离谱的发现是:其中一个被引用的「案例」根本不存在。

这种核查正在成为一种新型法庭战术。原文描述得很直白:检查对手是否留下了AI生成的无脑幻觉,然后向法官告发。当生成式AI的法律应用从内部效率工具变成公开辩论的靶子,专业服务的信任基础遭遇根本性挑战。

对 S&C 而言,这次暴露的代价远超一份修正文件。联邦法官对AI引用错误的态度日趋严厉——从训诫、罚款到向州律师协会通报,惩罚手段层层升级。部分法官甚至开始「创意执法」:Cozen O'Connor 律所的两名律师曾被法官给出选择——接受制裁,或写信给法学院院长解释自己如何搞砸。

行业通病:幻觉为何屡禁不止

S&C 绝非孤例。Morgan & Morgan 等大型律所同样因AI失误公开丢脸。这类错误的模式高度一致:AI错误引用或误述判例,甚至编造完全不存在的案件,而使用AI的律师往往未能察觉。

问题的核心在于生成式AI的工作机制。大型语言模型并非数据库检索系统,而是概率驱动的文本生成器。当被要求提供法律引用时,它倾向于生成「看起来正确」的格式,而非核实真实来源。这种「幻觉」在需要精确溯源的法律领域尤为致命。

律所们的应对策略呈现两极分化。一部分机构如 S&C 选择建立「培训要求」和「使用政策」,试图用流程管控技术风险;另一部分则对AI工具采取更保守的隔离态度。但从本次事件看,纸面政策与执行落地之间存在明显断层——Dietderich 自己也承认政策「未被遵守」。

企业级 ChatGPT 许可证的采购,某种程度上加剧了这种风险幻觉。拥有正式授权容易被误解为「官方认证的安全」,反而降低使用者的警惕性。当律师将AI输出直接粘贴进法庭文件,审核环节的设计缺陷便暴露无遗。

司法系统的反应:从宽容到铁腕

法官群体的态度转变值得玩味。早期AI引用错误可能被视为「技术尝鲜的代价」,但近期判例显示,司法系统正在收紧容忍度。

制裁威胁已成为常规工具。更值得关注的是「创意惩罚」的出现——要求律师向母校坦白错误的羞辱性选项,反映出法官对专业伦理底线的捍卫姿态。法律职业的声誉建立在可验证的精确性之上,AI幻觉直接动摇这一根基。

这种压力正在反向塑造律所的技术策略。S&C 的紧急补救和公开道歉,表明其更担忧的是监管后果而非单纯的声誉损失。