当你发现对手提交的合同条款"看起来不像人写的",你能怎么办?

法律行业正在面临一个尴尬的新问题:有人先用生成式人工智能(Generative AI,基于概率模型自动生成文本的技术)起草文档,再手动删改痕迹,让内容既"原创"又"高效"。这种半人工半机器的混合产物,比纯AI生成更难识别,也比纯手写更不可控。

打开网易新闻 查看精彩图片

为什么这事突然值得警惕

法律工作的核心是责任归属。一份合同的每一个措辞都可能成为庭审证据,每一个条款都对应具体的法律后果。当AI参与了创作过程但痕迹被刻意抹除,文档的"血统"就变得模糊——你不知道哪句话来自训练数据的偏见,哪处逻辑是模型的幻觉(Hallucination,AI生成看似合理但实际错误的信息)。

更麻烦的是审查成本。传统查重工具对付的是复制粘贴,面对"AI生成+人工润色"的混合文本几乎失效。你需要重新发明检测方法,而对方只需要多花十分钟删改。

现有工具的盲区在哪

目前市面上的AI检测器主要依赖两种信号:文本的统计规律性(AI文本往往更"平均")和特定模型的水印特征。但人工介入会同时破坏这两种信号——删掉过于流畅的过渡句,插入几个刻意的语法错误,检测器的置信度就会断崖式下跌。

这意味着技术检测只能作为第一道筛网,不能作为最终裁决。

更务实的应对思路

与其追逐检测精度,不如重构工作流程。核心原则是"可追溯"而非"可检测":

• 要求提交方附带创作日志,记录工具使用环节

• 在关键文档中嵌入版本控制,比对修改前后的语义偏移

• 对高风险条款启用双人复核,重点标记"过于完美"的表述——那种没有人类犹豫痕迹的流畅,本身就是异常信号

技术对抗会无限升级,但流程设计可以抬高作弊成本。当手动洗稿需要付出的时间逼近重写,这套机制就算起效了。