打开网易新闻 查看精彩图片

2023年,洛杉矶警局在预测性警务系统上砸了4200万美元。三年后审计报告显示:这套算法标记的"高危人员"里,98%根本没犯罪。这笔钱够雇800名巡警干五年,却被换成了一堆误报机器。

预测性警务的"黑箱"生意

预测性警务的"黑箱"生意

美国执法机构每年在数据分析工具上的支出超过12亿美元。Palantir、PredPol、ShotSpotter三家公司吃掉了其中七成份额。它们的卖点很统一:输入历史犯罪数据,输出"未来可能犯罪"的地址和名单。

PredPol的算法逻辑曾被《MIT科技评论》扒了个底朝天。它把城市划成150米×150米的网格,哪个格子过去报案多,未来就往哪派警车。听起来像天气预报,实际是个复读机——它只会重复 policing 过去的社区,而那些社区恰好是黑人聚居区。

2016年,芝加哥警局的"战略名单"泄露。名单上的人被算法打上"枪击风险"标签,结果其中一半从未涉枪,四分之一甚至没有任何逮捕记录。算法怎么算的?警方拒绝公开。记者起诉,法院以"商业秘密"为由驳回。

ShotSpotter更魔幻。这套声学系统声称能通过枪声定位,把响应时间从平均11分钟压到45秒。2021年芝加哥数据显示:它记录的"枪击事件"里,89%是烟花、排气管或工地噪音。但警察每次出动都要盘查现场人员,误报成了合法搜身的借口。

数据从哪来,偏见就从哪长

数据从哪来,偏见就从哪长

打开网易新闻 查看精彩图片

算法的原材料是历史犯罪数据。而历史犯罪数据本身就是警察巡逻密度的产物——巡逻多的街区,报案多、逮捕多、数据多。算法学到的是"警察爱去哪",不是"犯罪实际在哪"。

纽约市2013-2017年的"停搜"数据很说明问题。警察在少数族裔社区拦截搜身的频率是白人社区的10倍,但搜出武器的比例反而更低。把这些数据喂给算法,等于把种族歧视编译成了代码。

还有更隐蔽的输入源。LexisNexis的"风险情报"产品整合了信用记录、租房历史、甚至社交媒体点赞。一个人因为拖欠水电费被标记为"不稳定",因为脸书好友里有前科人员被加权"关联风险"。这些评分从不通知当事人,却会影响保释听证和量刑建议。

2022年,俄勒冈州一名女子发现自己在州警数据库里被标为"帮派成员"。理由:她前男友是帮派成员,她曾开车载他去超市。申诉流程走了14个月,期间她三次求职背调失败。

法律追不上代码的速度

法律追不上代码的速度

美国宪法第四修正案保护公民免受"不合理搜查",但法院对算法监控的态度暧昧不清。2018年Carpenter诉美国案确立了手机位置数据的隐私保护,但判决明确排除了"短期监控"和"公共安全例外"。

预测性警务正好卡在这个缝隙里。算法没有"搜查"任何人,只是给地址和名单打分;警察的盘查基于"合理怀疑",而怀疑的来源是机器。2020年,加州上诉法院在People v. Moore案中裁定:警方无需披露算法细节,被告无权挑战自己没见过的证据。

打开网易新闻 查看精彩图片

欧盟走了另一条路。《人工智能法案》2024年生效,明确禁止执法机构使用"社会评分"系统,预测性警务被划入"高风险"类别,必须接受合规审计。但美国没有联邦层面的AI监管框架,各州立法参差不齐。伊利诺伊州2021年禁止在招聘中使用人脸识别,但执法领域完全放行。

技术公司深谙此道。Palantir的政府合同里普遍包含"赔偿条款"——如果算法决策引发诉讼,由采购方政府承担全部法律责任。它们卖的是工具,不是判断;收的是许可费,不是问责。

当算法成为替罪羊

当算法成为替罪羊

2023年,底特律警局用面部识别锁定了一起盗窃案嫌疑人。男子有不在场证明,案发时正在拉斯维加斯参加婚礼。但他还是被关了30小时,因为"系统显示相似度98%"。

事后警方声明把锅甩给了技术:"面部识别只是调查线索,最终逮捕决定由警官做出。"算法成了完美的责任黑洞——有用时叫"智能辅助",出错时叫"仅供参考"。

这种结构保护了谁?2022年,洛杉矶县警长部门内部邮件泄露。一名分析师写道:"我们知道模型在拉丁裔社区误报率更高,但调整参数会降低整体'产出数字',预算听证会上不好看。"

产出数字。4200万美元的系统需要证明它"有效",而有效性的定义是标记了多少人、派出了多少次巡逻。至于这些人是否真的犯罪,不在KPI里。

预测性警务的悖论在于:它承诺用数据消除人的偏见,却把偏见自动化、规模化、不可质疑化。当一个社区被算法连续标记五年,警察的"合理怀疑"就成了自我实现的预言。数据不会撒谎,但收集数据的人会选择性失明。

如果下一套系统的误报率降到50%,预算审批会通过吗?如果降到20%呢?那个阈值由谁决定,又向谁公开?