根据极目新闻报道,最近有网友说,自己因买药收到当地交警部门发送的短信,提醒其注销驾驶证。该网友在往期视频中透露,自己曾购买镇静催眠药佐匹克隆片和速效救心丸。其向记者证实,短信是真的,自己也买过促进睡眠的药物,但未再提及是否买过速效救心丸。

根据其就诊购药记录,地方交警部门进行大数据比对分析,认为该网友可能存在妨碍安全驾驶的疾病。因此,交警部门要求其依法依规停止驾驶行为,前往车辆管理所办理驾驶证注销业务。

这事儿确实挺骇人:技术已经跑在了治理前面,而程序正义,却没看见紧跟其后。

买点药,怎么就被系统“判定”不适合开车了?这当然令人极度困惑。不过诡异的是,这事儿的出发点,其实没问题。

按照现行法规,确实有一类疾病,比如癫痫、严重心脏病、精神障碍等,是不允许驾驶的。同时,“药驾”也不是新问题,服用镇静催眠类药物后驾驶,反应迟钝、判断下降,确实可能酿成事故。

从这个角度讲,通过数据提前筛查风险人群,把事故挡在发生之前,这种“事前预防”的治理逻辑,看似有其道理。

然而问题不在“要不要做”,而在“怎么做”。

这恰恰也是程序正义之要义:你不能因为一件事情是正确的,就忽视了办事当中的先后顺序和公民权利。

一个本来需要复杂判断的问题,被简化成了一个粗暴的逻辑链条:“你买了某类药→你可能有某种病→你不适合开车”。

于是,就有可能剥夺你的驾照。

这中间跨越了多少现实的复杂性?细节几乎全部被抹掉了:买助眠药,可能只是最近压力大、睡不好;你买速效救心丸,可能是给父母备着。

甚至,就算是买了这些药给自己吃,也不代表身体就一定有不符合驾驶规定的问题啊。

但在算法眼里,这些差异是不存在的。它只看“行为痕迹”,不在乎“行为动机”。于是,“相关性”被当成了“因果性”,一个概率判断,被当成了接近确定性的结论。

“技术还不够聪明”,还只是能力问题;现在的问题是,它正在悄悄改变程序的运行方式。

打开网易新闻 查看精彩图片

算法开始参与治理,一个很容易被忽视的转变是:判断权,正在从“可解释的人”,转向“不可解释的系统”。

银行卡被风控系统错杀、社交软件被莫名其妙限制使用……都是类似的问题。

你不知道这套模型是怎么设定阈值的,不知道什么行为会触发预警,也不知道自己什么时候被纳入了某种“风险标签”。一切都在后台静默运行,而你只在结果出现时,被动接受通知。

去询问,答案只有“我们也不知道算法是怎么运作的”。

没有人直接指控你,但系统已经“倾向性地认为你有问题”;没有正式处罚,但你已经开始承担证明成本;没有公开决策过程,但结果却实实在在影响你的权利。

这是一种非常隐蔽的管理权扩张方式:它可以轻松改变规则,把责任交给算法。

更让人不舒服的,其实还不光是算法,而是沟通方式。

那条短信的措辞,给人感觉是一种裁决:“30日内注销,逾期作废”。“先定性、再解释”,这种冰冷让很多人都是无法接受的。

哪怕后续交警解释说:“这只是一种提醒,可以申诉、可以签承诺书”,但第一时间传递给公众的信息,是另一种感觉:先认为你有问题,然后你再自证。

你被默认有问题,然后你需要花时间、跑医院、开证明,去证明你没有问题。这就是一个很典型的逻辑转移:举证责任,从管理者,转移到了个体身上。

而一旦这种逻辑被接受,它就是可以被复制的:今天是“买药影响驾照”,明天可能是“消费记录影响金融信用”,后天甚至可能是“社交行为影响某种权限与资格”。

如果每一个环节都以“风险预防”为名,逐步扩大数据使用范围,那最终的结果,很可能不是更安全的社会,而是一个充满了不确定性、处处担心被系统误判的社会。

这才是“大数据滥用”的真正风险——它是以“合理的小步骤”,一点点侵入日常生活。

这件事中间还存在一个数据边界的问题。

你买了什么药,这是典型的敏感个人信息。那么,这些数据是如何流动的?谁有权调用?你又是否知情?

当医疗数据和交通管理数据被互相打通之后,确实提升了效率,但同时也打开了一扇更大的门。

交通安全、金融风控……再后来可能就是更多你想不到的场景。

技术上其实永远没有障碍,真正的障碍,只有程序掌控者的自我约束。

必须建立一个“反滥用机制”。任何跨部门数据调用,都应有明确授权、可追溯记录和独立监督;任何基于算法的预警,都应保留人工复核机制;任何影响公民权利的决策,都必须可解释、可申诉、可纠错。

否则,技术越先进,风险反而越大。

很多事情,初衷都是“为你好”,结果却变成了“先怀疑你,再让你证明你没问题”。

技术可以越变越聪明,但带来的不应当是“把程序交给算法”,而应当是对程序正义的加倍重视。