2025年7月,美国法警敲开了田纳西州一户人家的门。正在照看孩子的安吉拉·利普斯(Angela Lipps)被铐走,押往1000英里外的北达科他州——一个她声称从未踏足过的州。指控她的证据,是一套AI人脸识别系统的"匹配结果"。
这不是科幻情节。利普斯在狱中度过了近4个月,直到律师用银行记录证明她案发时根本不在场。 Fargo警局最终撤诉,但伤害已成。
一次"常规"的AI协查如何变成冤案
事情始于北达科他州Fargo市的一起银行欺诈案。当地警方求助邻市West Fargo警局——后者日常使用Clearview AI的人脸识别技术。Fargo希望这套系统能帮他们锁定嫌疑人。
Clearview AI的运作逻辑并不复杂:它从社交媒体、新闻网站等公开渠道抓取数十亿张人脸照片,建立庞大数据库。警方上传监控截图,系统返回"相似面孔"列表。
利普斯的脸出现在了这个列表里。
Fargo警局局长戴夫·齐博尔斯基(Dave Zibolski)事后强调,案件"并非 solely based( solely 基于)"AI生成的线索,警方还采取了"其他调查步骤"。但具体是什么步骤?用了哪些证据?官方至今未披露。
7月,逮捕令签发。美国法警跨州执法,利普斯被登记为"逃犯",不得保释。
她在县监狱里待了几乎整个夏天。10月被引渡到北达科他州后,律师团队调取其银行消费记录——时间、地点清晰证明她不可能出现在案发现场。指控随即撤销。
讽刺的是,获释后的利普斯一度被困在北达科他州,辗转才回到田纳西的家。Fargo警方对媒体解释,她"被关押时间过长"可能是因为"抗拒引渡",或是因为她同时有其他案件在身。原文在此处截断,但利普斯的4个月牢狱之灾已成事实。
Clearview AI:争议中的"执法利器"
这起案件的核心工具Clearview AI,本身就是硅谷最具争议的公司之一。
它未经用户同意抓取Facebook、Instagram、Twitter等平台的照片,被多国监管机构起诉。2022年,法国、意大利、希腊相继开出罚单,认定其违反《通用数据保护条例》。但在美国,它仍在扩张——截至2023年,已有超过3000个执法机构使用其服务。
Clearview的商业模式很简单:向警方按查询次数收费,或签订年度合同。它的卖点也很直接:传统指纹数据库需要嫌疑人有前科才能匹配,而人脸识别可以"从一张脸找到身份",哪怕对方从未被捕。
问题是,这套系统的准确率从未经得起独立验证。
2022年美国国家标准与技术研究院(NIST)的测试显示,人脸识别算法对深肤色女性的误识率最高可达深肤色男性的10倍。光照、角度、遮挡物都会显著降低精度。但警方使用时,往往只看到系统返回的"匹配度百分比"——一个看似科学的数字,却缺乏统一的司法标准。
更关键的是流程漏洞。Fargo警局声称AI只是"线索来源",但"其他调查步骤"具体指什么?是人工复核照片?还是找目击者指认?如果AI先给出"答案",人类调查员是否会不自觉地逆向验证——寻找证据支持这个结论,而非独立排查?
利普斯的案子没有答案。但数据指向一个趋势:据乔治城大学隐私与技术中心统计,美国已有至少16个州允许警方在无 warrants(搜查令)情况下使用人脸识别。约束越少,滥用空间越大。
前科:底特律的"10小时"与系统性反思
利普斯不是孤例。
2023年,底特律女子波尔莎·伍德鲁夫(Porcha Woodruff)被错误指控劫车。同样是人脸识别匹配错误,她在狱中待了10小时。警方后来承认失误,据称底特律因此修改了人脸识别使用规范。
两起案件的对比耐人寻味:
伍德鲁夫10小时获释,利普斯4个月才自由。差异可能源于引渡程序的复杂性——跨州案件涉及更多司法环节,每个节点都是拖延的借口。也可能源于利普斯"逃犯"的身份标签,让她在保释听证中处于更不利地位。
但核心问题一致:当AI说"这是TA",司法系统如何设置防火墙?
底特律的"改进"细节未公开,但从行业实践看,可能的措施包括:人脸识别结果不得作为唯一逮捕依据;匹配度阈值提高;强制人工复核;建立误识问责机制。然而这些多是地方层面的自我约束,联邦层面至今没有统一立法。
更值得追问的是数据源头。Clearview AI的数据库建立在未经同意的网络爬取之上,这意味着每个社交媒体用户都可能是"潜在嫌疑人库"的一员。利普斯从未同意自己的照片被用于执法匹配,但这不妨碍系统将她与Fargo的监控画面对比。
这种"全民嫌犯化"的数据逻辑,正在重塑警方与公民的权力关系。
技术中立?不,是选择架构
每次AI误判引发争议,总会出现一种辩护:技术本身是中立的,问题出在使用者。
利普斯案戳破了这种叙事。
Clearview AI的设计本身就包含价值选择:优先覆盖而非精准,追求"宁可错杀"的召回率而非精确率;数据获取方式选择绕过平台规则和用户知情;商业模式选择向执法部门而非公众负责。这些选择构成了特定的"使用情境",警方在其中很难保持独立判断。
更深层的问题是制度惯性。人脸识别被包装为"高效""智能"的现代化工具,警方采购时看重的是破案率提升,而非误识成本——后者由像利普斯这样的个体承担,分散且不可见。直到冤案爆发,成本才突然显形。
Fargo警局的回应模式很典型:强调"并非 solely based on AI",将责任分散到"其他调查步骤";解释关押时长时,暗示利普斯自身也有责任(抗拒引渡、其他案件)。这种修辞策略将系统性失误转化为个别环节的"沟通问题",回避了对技术依赖本身的反思。
但数据不会说谎。据2023年的一项研究,美国已有至少5起公开报道的AI人脸识别错捕案,实际数字可能更高——许多受害者从未获得媒体关注,或选择和解而非公开诉讼。
当算法成为"合理怀疑"的起点
美国宪法第四修正案要求逮捕需有"合理怀疑"(probable cause)。传统上,这基于人类证词、物证、行为观察等。现在,一个算法的输出能否单独构成"合理怀疑"?
法院的回答正在形成,但滞后于技术扩散。
2023年,马里兰州上诉法院在一起案件中裁定,人脸识别结果本身不足以支持逮捕令,需 corroborating(佐证)证据。但"佐证"的标准是什么?Fargo警局声称的"其他调查步骤"是否符合?目前没有清晰判例。
利普斯的律师用银行记录推翻指控,这提示了一种可能的防御策略:在AI匹配与铁证之间,后者仍是更硬的真理。但问题是,不是每个人都有完整的电子足迹,也不是每个人都能负担得起跨州取证的律师费用。
更深的不平等在于:AI识别错误的分布并非随机。NIST测试显示,深肤色、女性、老年人是误识重灾区——恰恰是历史上被过度执法的群体。技术以"客观"之名,复制并放大了既有的偏见结构。
Clearview AI的数据库同样存在偏差:社交媒体用户画像偏向年轻、城市、科技活跃群体,而农村、低收入、老年群体的覆盖率较低。这意味着,某些人群更容易被"匹配"到错误身份,而另一些人群则可能在数据库中"隐形"——两种扭曲都是正义的敌人。
开放提问
安吉拉·利普斯回到了田纳西,但4个月的监禁无法撤销。她的案子不会终结AI人脸识别在执法中的使用——效率的诱惑太大,质疑的声音太分散。
真正的问题或许是:当一套系统的错误成本由个体承担,而收益由机构获取时,谁来设计制衡机制?如果"人工复核"只是走过场,如果"其他调查步骤"从不公开,我们是否需要一条硬性规则——AI识别结果永远不得作为逮捕的唯一依据,违者追究司法责任?
利普斯从没去过北达科他州。但北达科他州的司法系统,通过一行算法代码,在她的人生中留下了永久的印记。下一次,算法指向的会是谁?
热门跟贴