这个问题很重要。毫无疑问,人会因为各种各样的原因出错。那么,有着极强计算能力、永不疲倦的算法会出错吗?换句话说,人把复杂的社会治理的重任交给算法,真的万无一失吗?2017年3月,有个记者叫艾哈迈德·扎伊丹,他对特朗普政府提起诉,起因是这样:根据斯诺登的泄密资料,美国国家安全局有个臭名昭著的项目,叫“天网项目”。这个项目通过收集旅行数据和手机使用数据,用云行为分析交叉比对地理空间、地理时间、生活模式、旅行模式,来识别可疑的活动模式和发现可疑人员。结果呢?扎伊丹被算法识别为基地组织的信使,被标记为恐怖分子嫌疑人。

就像我们在前面讨论的,由于国际反恐活动的特殊性,潜在的恐怖分子往往跟普通老百姓没区别,难以定位和识别。对潜在恐怖分子的怀疑,只能在微小的细节层面被捕捉到。“异常检测”就是用计算机去识别这当中微小的异常,比如某人说的语言跟他所在的地区不符,某人正在使用加密工具,某人正在网上搜索可疑的东西,扎伊丹正是因此被标记为了潜在恐怖分子。但算法忽视了一点:扎伊丹是半岛电视台伊斯兰堡分社社长。他的职业身份决定了他的行为模式和社交网络跟大部分两点一线按时上下班的普通人截然不同。甚至他跟某些恐怖分子处于同一个社交关系图谱当中这件事,放在普通人身上可能难以想象,但放在一个长期活跃于复杂危险地带的资深记者来说,这再正常不过了。

你看,机器学习依赖于从细节中寻找偏差——电话的时长,在某些奇特的地方过夜停留,移动设备的罕见行为,但它不理解扎伊丹看似异常的背后,只是他记者职业身份的寻常。在我个人看来,社会生活中关于算法“异常检测”的应用已经引发了相当多的讨论和争议,这些案例往往充满了道德和伦理的复杂性。比如,当前许多社交平台都在运用先进的机器学习算法,通过分析用户的发言内容、互动模式、行为轨迹等数字足迹,进行所谓的“异常检测”,试图识别和筛选出那些可能存在抑郁症状和自杀倾向的个体用户。一旦算法判定某用户存在高风险,系统便会自动将相关信息提交给专业的心理健康机构或社会干预组织,以便及时采取预防性措施。

从积极的角度来看,这种技术手段确实可能在千钧一发的关键时刻发挥救命的作用。在传统模式下,许多处于心理危机中的个体往往选择独自承受痛苦,身边的亲友可能完全察觉不到他们内心的挣扎和绝望,直到悲剧发生才追悔莫及。而算法的24小时监测能力,理论上可以比人类更早地发现这些危险信号,为及时干预争取宝贵时间。

然而,这种做法的另一面却是对个人隐私权的潜在过度侵犯。每个人的情感表达和心理状态本应是极其私密的个人领域,算法对这些内容的深度分析和判断,实际上构成了对私人精神世界的全方位监控。更深层次的问题在于:人类社会的维系和运行,除了规则,还有人情味,还有同情、理解、良知、悲悯……算法本质上缺乏“良心”这一人类独有的道德判断能力,它只能按照预设的逻辑和参数机械地执行任务。在机器认定的“异常”面前,还能“变通”吗?还有“枪口抬高一寸”吗?所以,所谓的算法治理,仍然是一个需要极为审慎考量的领域。