2025年7月,美国法警敲开田纳西州一扇门时,安吉拉·利普斯正在 babysit。她从未踏足过北达科他州,却因该州一张银行欺诈案通缉令被铐走。从家门到监狱,她花了4个月才证明自己清白——而一切始于一张AI生成的"匹配"照片。

一张比对图引发的连锁反应

打开网易新闻 查看精彩图片

事件起点是北达科他州法戈市的一桩银行欺诈案。法戈警局向邻市西法戈求助,后者日常使用一家叫Clearview AI的人脸识别技术。这套系统扫描后,将利普斯标记为嫌疑人。

法戈警局局长戴夫·齐博尔斯基事后强调,案件"并非 solely based"(并非 solely based)于AI生成的线索。但公开信息中,警方未披露其他证据细节。一张算法输出的相似度分数,加上未知的"其他调查步骤",足够让一名千里之外的平民成为通缉犯。

7月签发逮捕令,10月才完成引渡。利普斯的律师最终用银行记录证明她案发时根本不在该州,指控撤销。但4个月的监禁已无法撤销——她被关押时不得保释,释放后甚至一度困在北达科他州,没钱回家。

这不是孤例:底特律的"10小时"与法戈的"4个月"

2024年,底特律女子波查·伍德拉夫因人脸识别错误被控劫车,入狱10小时。警方承认错误后,据称推动了底特律修改人脸识别使用规则。但利普斯的遭遇显示,制度补丁并未自动扩散——法戈的操作流程中,4个月的"验证期"仍被视为可接受。

两案关键差异:伍德拉夫有律师快速介入,利普斯的清白证明耗时数月;底特律承认错误后改革,法戈警局仅表示"遗憾",未提系统调整。技术工具的滥用成本,最终由个体以自由为代价承担。

Clearview AI的技术逻辑值得审视。该公司从公开网络抓取数十亿张人脸图像构建数据库,无需当事人同意。当一张你的照片出现在社交媒体、新闻网站或任何公开页面,它就可能成为算法比对的一环。利普斯的"匹配"从何而来?原文未披露,但技术路径决定了误匹配的概率客观存在。

人脸识别在警务中的真实定位

美国警方使用AI的范围正在扩大:撰写报告、优化通讯、人脸识别。皮尤研究中心数据显示,多数美国人对AI持警惕态度,但技术部署速度远超公众认知。法戈案暴露的核心矛盾:当AI被定位为"辅助工具"时,人类决策者是否具备足够的质疑能力?

齐博尔斯基的"并非 solely based"辩护,恰恰说明制度设计的模糊性。如果AI输出是触发调查的必要条件,它就不是真正的辅助;如果其他证据足够充分,为何需要4个月才能排除错误?这种逻辑缝隙让技术成为责任的灰色地带——出事时归咎于"综合判断",邀功时强调"科技赋能"。

更值得追问的是验证机制。利普斯的银行记录本可在数小时内调取,为何拖到引渡后才成为关键证据?刑事司法系统的惯性、跨州协作的低效、还是对人脸识别结果的过度信任?原文未给出答案,但时间线本身构成指控:4个月的羁押,说明系统对AI错误的纠偏能力严重不足。

当"辅助工具"获得事实上的定罪权

利普斯案的残酷性在于,她从未获得"对抗算法"的机会。逮捕令签发时,她不知情;引渡过程中,她无力自证;直到律师介入,传统证据(银行记录)才推翻数字证据(人脸识别)。整个流程中,AI的输出像一道隐形门槛——跨过去,你就进入刑事程序的碾压轨道。

这与技术中立的说辞形成讽刺。Clearview AI这类系统的营销话术通常是"加速调查、提高效率",但法戈案展示的是效率的黑暗面:加速错误、高效毁人。当技术将"可能性"包装为"线索",再将"线索"转化为"通缉令",每个环节的决策者都在传递风险,却无人承担最终责任。

底特律的改革细节原文未详述,但"10小时"到"4个月"的对比暗示:地方政策差异巨大,缺乏全国统一的技术使用标准。利普斯的遭遇可能发生在任何尚未"吸取教训"的 jurisdiction——而这类 jurisdiction 的数量,远多于已改革的。

技术问责的真空地带

利普斯释放后,法戈警局的回应是标准危机公关:承认错误、表达遗憾、强调"综合调查"。但无人解释为何AI匹配能支撑4个月的羁押,无人承诺修改流程,更无人讨论赔偿。技术供应商Clearview AI保持沉默——这是另一重常态:算法出错时,责任止于采购方,而采购方的责任止于"程序合法"。

这种结构性的免责设计,让个体成为技术试验的耗材。伍德拉夫的10小时和利普斯的4个月,本质上是同一问题的不同剂量:当人脸识别从"辅助"滑向"依据",程序正义如何保障?答案目前缺失。

更深层的困境在于,这类技术的误用难以量化。多少"正确"的识别被用来证明系统可靠?多少错误被悄然撤销、从未进入公共记录?利普斯和伍德拉夫之所以被知晓,是因为她们选择抗争或媒体介入——更多沉默的案例,构成技术治理的暗数。

法戈警局声称进行了"其他调查步骤",但未披露具体内容。这种信息不对称是权力不对等的缩影:被指控者无从知晓自己被认定的依据,只能在黑暗中等待系统自我纠错。利普斯的幸运在于她有银行记录可证清白;若她恰好使用现金、或无完整财务痕迹,4个月可能变成更长的刑期。

人脸识别在警务中的扩张,建立在一种危险的假设之上:算法偏见和误匹配是"可接受的成本"。但这个成本从不由部署者支付。利普斯失去的4个月自由、工作、家庭关系,不会计入任何技术评估报告。当效率成为唯一指标,人的境遇就被抽象为可牺牲的误差项。

Clearview AI的数据采集方式同样值得警惕。数十亿张未经授权的人脸图像,构成其商业模式的基石。利普斯的"匹配"可能源于一张她甚至不记得发布过的照片——这种无处不在的监控潜力,让"从未访问该州"的自辩显得苍白无力。在算法的凝视下,物理边界正在失效。

皮尤研究中心的警惕数据与此形成对照:公众担忧的是 deepfake 和虚假信息,而人脸识别这类"日常化"的AI应用,反而因嵌入体制而更难被质疑。利普斯案的价值,或许在于将隐蔽的技术权力拖入可见的争议——尽管代价过于沉重。

底特律的改革经验能否复制?原文未提供细节,但法戈的4个月表明,技术治理的学习曲线漫长且非自动。每个 jurisdiction 都在独立试错,而试错的牺牲品是具体的个人。这种分散的、被动的改进模式,与技术的集中部署速度严重不匹配。

更根本的问题或许是:人脸识别是否应被允许用于刑事调查的初始阶段?利普斯案显示,一旦AI输出进入系统,后续的"人工复核"往往沦为形式——调查者倾向于确认而非质疑技术线索,这是认知偏见的经典陷阱。将AI降级为"最后手段"而非"优先工具",可能是必要的制度防火墙。

但商业逻辑推动相反方向。Clearview AI这类公司的增长,依赖于警务市场的扩张;而警务机构的预算竞争,倾向于拥抱"创新"以展示效率。利普斯的4个月,是这套激励结构的副产品——技术供应商和采购方共赢,输家只有被误认的个体。

当利普斯终于回到田纳西州,她面对的是一个无法回答的问题:如果那张照片从未被算法扫描,她的人生会如何?技术的中立性神话在此破裂。人脸识别不是被动工具,而是主动塑造可能性的权力装置——它决定了谁值得被调查、谁可以被羁押、谁必须自证清白。

法戈警局的"遗憾"不会改变这一结构。除非出现强制性的技术使用标准、独立的算法审计机制、以及真正的问责路径,否则利普斯的遭遇将重复发生。而此刻,在无数未报道的 jurisdiction,类似的比对可能正在进行——下一张匹配照片的主人,尚不知道自己即将进入系统。

如果一张AI生成的相似度分数,加上未公开的"其他调查步骤",就足以让一个人在另一个州被关押4个月——我们是否需要重新定义"合理怀疑"的法律标准,还是继续相信"人工复核"能够约束算法的权力?