2025年7月,美国法警敲开田纳西州一户人家的门时,安吉拉·利普斯正在帮邻居照看孩子。她从未踏足过北达科他州,却因该州法戈市的一起银行诈骗案被通缉。从逮捕到释放,她在监狱里度过了将近4个月——而一切的起点,只是一张AI生成的面部比对结果。

一张"匹配"照片,如何变成逮捕令

打开网易新闻 查看精彩图片

法戈警局负责调查这起银行诈骗案时,手头只有监控画面。他们向邻近的西法戈警局求助,后者使用的是Clearview AI的人脸识别系统。这家公司的数据库从社交媒体等公开渠道抓取了数十亿张照片,执法机构上传嫌疑人图像后,系统会返回一系列"相似面孔"。

利普斯的名字就这样出现在结果列表里。

法戈警局强调,他们没有仅凭AI结论行事。局长戴夫·齐博尔斯基公开表示,案件"并非 solely based(唯一依据)"于AI生成的线索,警方还进行了"其他调查步骤"。但具体是哪些步骤、这些步骤如何交叉验证,目前并无公开说明。

7月,逮捕令签发。美国法警跨州执行,将利普斯从她家中带走。她被登记为"逃犯",不得保释。

这里有个细节值得玩味:西法戈警局"常规性"使用Clearview AI的技术,但法戈警局本身似乎并非该系统的直接用户。这种"借邻居的工具办案"的模式,在中小型警局之间可能相当普遍——也意味着技术使用的责任边界变得模糊。

四个月的"流程":从田纳西到北达科他

利普斯在田纳西县的监狱里待到10月,随后被引渡到北达科他州面对多项指控。从被捕到真正站上法庭,时间线被各种行政程序拉长。

法戈警方后来的解释是:羁押时间之久,要么是因为利普斯本人"抗拒引渡",要么是因为她同时在为另一项未结案件"服刑"。但利普斯的律师最终用银行记录证明了她与那起银行诈骗案毫无关联——这些记录本可以在早期调查中被调取,却直到数月后才成为关键证据。

案件撤销后,利普斯的处境依然艰难。她在北达科他州" stranded(滞留)",最终才设法返回田纳西家中。

这个案例暴露了一个结构性问题:当AI给出"匹配"结果时,它激活的是一套已经运转的司法机器。逮捕令、引渡程序、保释听证……每个环节都有"正当理由"继续推进,却很少有机制在流程中设置"AI可能错了"的熔断点。

不是孤例:底特律的"前车之鉴"为何没起作用

利普斯的遭遇让人立刻想到另一个名字:波查·伍德瑞夫。

2023年,这位底特律女性因人脸识别错误被指控劫车,在监狱里度过了10个小时。底特律警方后来承认错误,据报道还"改变了使用人脸识别的方式"。当时这起案件被广泛报道,被视为推动技术治理的契机。

但两年后的利普斯案显示,这种"改变"的辐射范围有限。

底特律的调整并未阻止北达科他州的警局依赖同样的技术、陷入相似的陷阱。更关键的是时间尺度的差异:伍德瑞夫10小时后获释,利普斯却被关押了近4个月。这种差异可能源于个案情节、司法管辖区效率,或者仅仅是运气——但无论原因是什么,它都说明"错误识别"的后果高度不可控。

Clearview AI的技术在这两起案件中都是关键工具。该公司曾因未经同意抓取社交媒体照片而面临多项诉讼和监管处罚,但其核心商业模式——向执法机构出售人脸识别服务——仍在扩张。对于使用者而言,技术的"方便性"往往压过了对误报率的审慎评估。

当"辅助工具"变成决策捷径

法戈警局的回应很有代表性:强调AI"不是唯一依据",暗示流程的正当性。但这种辩护恰恰揭示了问题的核心——人脸识别在实战中如何被使用。

理论上,AI应该只是"线索生成器",需要人工调查 corroborate(佐证)。但在资源有限的警局,"有其他调查步骤"很容易沦为形式:比对结果提供了"合理怀疑",而合理怀疑足以启动逮捕程序。一旦进入司法系统,被告需要自证清白,而非由警方首先排除误报可能。

利普斯的银行记录最终证明了她的无辜,但这些记录本可以在逮捕前被调取。延迟调取是疏忽、是流程漏洞,还是某种程度的"有了AI匹配就不急"的心态?我们不得而知。但可以确定的是,当技术提供了"答案",人工验证的紧迫性往往被稀释。

更值得追问的是责任分配。利普斯被释放后,谁为这4个月负责?法戈警局将部分原因归咎于利普斯"抗拒引渡"或另有案件在身——这种解释将系统性的技术误用转化为个人层面的程序摩擦。Clearview AI作为技术提供方,目前不承担任何法律责任。而西法戈警局作为系统的常规使用者,与法戈警局的"借用"关系让责任更加分散。

技术治理的"补丁"为何总是滞后

美国执法机构对人脸识别的使用正处于混乱的 patchwork(拼贴)状态。部分城市完全禁止,部分州要求立法授权,联邦层面则缺乏统一框架。这种碎片化意味着,底特律的教训不会自动转化为法戈的预防措施。

欧盟的《人工智能法案》将执法用的人脸识别列为"高风险",要求严格的透明度、人工监督和纠错机制。美国没有同等效力的联邦立法,各州自行其是的结果是:同样的技术错误可以反复发生,而每次的"改进"都局限于个案或个别 jurisdiction(司法管辖区)。

利普斯案的另一个细节是时间戳:2025年7月。这不是遥远的未来场景,而是正在发生的现实。当公众还在讨论AI生成视频的真假时,更"传统"的AI应用——人脸识别——已经在司法系统中制造着真实的伤害。这种伤害没有 deepfake(深度伪造)的视觉冲击力,却同样深刻地扭曲着个人的生活轨迹。

为什么这个案例值得技术从业者关注

对于25-40岁的科技从业者,利普斯案提供了一个罕见的"全链条"观察窗口。从数据采集(Clearview如何构建其数十亿张图像的数据库)、模型输出("匹配"结果的置信度如何呈现)、到组织使用(警局如何解读和依赖这些结果)、再到系统后果(司法程序的惯性如何放大初始错误)——每个环节都有产品设计和技术决策的影子。

它也是一个关于"辅助"与"替代"边界的案例。几乎所有AI系统都被定位为"辅助人类决策",但在实际操作中,辅助很容易滑向替代。当法戈警局说AI"不是唯一依据"时,他们描述的是一种理想状态;利普斯的4个月牢狱之灾,则是现实状态的残酷注脚。

更深层的启示在于反馈循环的缺失。人脸识别系统的误报率、这些误报如何被纠正、纠正需要多长时间——这些数据对于改进系统至关重要,但目前主要由媒体曝光和个别诉讼驱动,而非结构化的监测机制。这意味着,技术提供者可能长期低估其产品的实际错误成本。

如果利普斯没有能够证明行踪的银行记录呢?如果她负担不起律师费用呢?技术错误的代价,最终由那些最缺乏资源自证清白的人承担——这种不对称性,是AI治理讨论中常被忽略却至关重要的一维。

当一张AI生成的比对图可以跨州启动逮捕程序、将人关押数月而无需更坚实的证据时,我们依赖的究竟是技术的"智能",还是司法系统对技术结论的过度信任?下一个被算法"匹配"的人,能否在4个月内证明自己无辜——还是说,这个数字取决于他们恰好拥有什么类型的记录、请得起什么水平的律师?