你凌晨三点睡不着,打开一个聊天机器人,把心里最焦虑的事全盘托出——公司被查、合同有问题、不知道会不会被告。你以为这是私密的,就像对朋友倾诉。但美国一位联邦法官刚刚裁定:这些对话可以被检方拿走,作为呈堂证供。

这不是科幻情节。今年2月,纽约南区联邦法院法官杰德·拉科夫(Jed Rakoff)在United States v. Heppner案中作出里程碑式裁决:被告布拉德利·赫普纳与Anthropic公司Claude(克劳德)人工智能的聊天记录,既不享受律师-客户保密特权,也不受工作成果保护原则庇护。十余家大型律所随后紧急向客户发出警告。

打开网易新闻 查看精彩图片

这个案子暴露了AI时代一个被忽视的陷阱:我们把最敏感的信息喂给机器,却误以为自己在"咨询"。以下是五个必须看清的要点。

一、特权为什么失效:AI不是律师,甚至不是"人"

律师-客户保密特权的核心要件很清晰:沟通必须发生在客户与持证律师之间,目的是寻求法律建议,且客户有合理保密期待。

拉科夫法官的判决直击要害。他在庭上明确表示,赫普纳"实际上向第三方披露了信息,即AI,而AI不承担保密义务"。Claude没有律师执照,不对用户负有忠诚义务,无法建立任何职业关系。从法律构造上看,它和你在酒吧向陌生人吐槽案情没有本质区别。

工作成果保护原则同样落空。该原则保护律师为诉讼准备的材料,但赫普纳使用Claude时尚未正式聘请辩护律师,其行为属于"自行研究"而非"律师指导下的准备"。更关键的是,AI生成的内容不具备"律师心智劳动"的属性——它只是概率模型的输出。

这里有个残酷的对比:如果你花钱请律师助理做法律检索,成果可能受保护;但如果你用20美元的AI订阅服务做同样的事,对话完全暴露。价格更低,风险更高。

二、用户协议里的" Trojan Horse"(特洛伊木马)

拉科夫判决的第二个支柱,是Anthropic的用户条款。法官仔细审查后发现,赫普纳点击"同意"时,已经签署了一份与保密完全 incompatible(不相容)的协议。

条款明确允许:数据收集、用输入输出训练模型、向第三方包括政府监管机构披露。这些不是 buried clauses(隐藏条款),而是标准AI服务的通行做法。OpenAI、Google、Meta的类似产品条款大同小异。

法律上的"合理保密期待"就此瓦解。美国隐私法中的"合理期待"测试看的是客观标准:一个理性人是否认为该环境私密。当服务协议白纸黑字写明"我们可能把你的话喂给模型、分享给监管者",法官很难认定你有这种期待。

更麻烦的是训练数据的去向。你的案情细节可能成为模型参数的一部分,在未来某个无关对话中被"幻觉"出来。没有删除权,没有追踪机制,甚至没有通知义务。

这创造了一个悖论:AI公司越是透明地披露数据用途,用户越难主张法律特权;但如果它们不披露,又面临消费者欺诈诉讼。合规与保护,两头不讨好。

三、被告做了什么:一个典型的高风险使用场景

理解这个判决的冲击力,需要看清赫普纳的具体行为。他不是用AI写邮件或查法条,而是在收到大陪审团传票后、正式聘请律师前,用Claude做三件事:

分析自己的法律风险敞口;梳理潜在辩护策略;起草法律论点和论据。这些正是律师的核心工作。他试图用AI替代早期法律介入,结果制造了31份可被检方调取的"自白书"。

FBI搜查他家时,这些文档被完整缴获。政府申请强制提交,赫普纳主张特权保护,拉科夫驳回。从时间线看,2025年11月被起诉,2026年2月裁决,节奏快得惊人。

这个模式在白领犯罪中极具代表性。高管收到调查信号后,往往有几天到几周的"窗口期"才正式组建辩护团队。过去他们会沉默、找信任的朋友商量、或者冒险销毁证据。现在多了一条"捷径":问AI。

赫普纳案表明,这条捷径通向的是悬崖。AI不会警告你"这些话可能被用作证据",它只会继续生成流畅的、看似专业的回应,让你产生"我正在获得保密法律建议"的错觉。

四、律所的反应:从观望到警报

判决后,超过12家大型律所向客户发出咨询备忘录。这种反应速度在法律界并不寻常——通常重大判例需要数月消化,但AI相关的职业风险让律所选择立即行动。

警告的核心内容高度一致:区分"AI辅助"与"AI替代"。律师可以使用AI进行文档审查、案例检索、草稿生成,但前提是客户信息经过脱敏处理,且最终法律判断由人作出。客户绝不应在未建立律师关系前,直接向公开AI披露案件细节。

一些律所开始更新 engagement letters(聘用协议),明确禁止客户将未决法律事务输入第三方AI。这既是保护客户,也是自保——如果客户因AI泄露而败诉,律所可能面临渎职诉讼。

更深层的变化在保险领域。法律职业责任保险(LPL)的承保范围是否涵盖"AI相关泄露",正在成为争议焦点。有保险公司开始排除"客户自行使用公共AI导致的损失",把风险踢回给律所和客户。

一个行业惯例正在形成:涉及敏感法律事务的对话,必须发生在封闭系统内。企业级AI部署(on-premise或私有云)与消费级产品的法律风险,被彻底区分开来。

五、全球视角:欧盟的平行压力

美国判决的同时,欧盟的《人工智能法案》(AI Act)正在重塑合规框架。虽然立法路径不同,但核心关切一致:高风险AI应用需要可追溯、可审计、有人负责。

欧盟没有律师-客户特权的联邦传统,但专业保密义务(professional secrecy)在成员国法律中普遍存在。法国、德国的法律职业规范已经明确,未经客户同意,律师不得将案件信息输入外部AI系统。这与拉科夫判决形成跨大西洋呼应。

更值得关注的是数据跨境。如果美国检方可以调取存储在Anthropic服务器上的AI对话,欧盟客户的信息是否同样脆弱?《通用数据保护条例》(GDPR)的充分性认定机制,在这种场景下面临压力测试。

一个技术细节:多数AI服务的服务器位置不透明,数据可能在传输中经过多个司法辖区。赫普纳案的搜查令针对的是本地设备上的"31份文档",但如果被告只使用网页版、未本地保存,取证路径会更复杂,也可能更暴露。

对企业法务部门来说,这意味着AI使用政策必须从"效率工具"升级为"合规基础设施"。哪些数据可以输入、使用什么平台、如何审计留存,都需要明文规定。模糊地带正在消失。

赫普纳案的价值,在于它用判决书的形式确认了一个直觉:当你对机器倾诉时,没有人在听,但有人在记录。这些记录不属于你,不属于你的律师,而属于运营平台的科技公司——以及任何能拿到法院令状的调查者。

技术从业者常说要"move fast and break things"(快速行动,打破陈规)。在法律领域,打破的可能是你自己的辩护策略。下次凌晨三点焦虑时,也许该忍住,等到早上九点打给真人律师——至少那通电话,对方有义务保密,而且账单虽然贵,但比自证其罪的代价便宜多了。