许知远说我们每个人都是带着偏见

在看这个世界

我以为如果我们把决策交给计算机

就能避免带着偏见做出的错误决策

可我们真的可以相信计算机吗?

事实上计算机只不过是deep learning了

一遍人类社会的现状

根据大数据当然会做出和当前社会一样的

具有偏见的错误决策

而且连算法工程师自己

都不知道计算机是处理分类这些信息的

不管我们愿不愿意

算法已经是无处不在了

它不仅仅影响你线上购买什么产品

还决定了你晚上去哪家酒店开房

而且已经真真切切地改变了很多人的人生轨迹

算法可以决定谁能获得更多贷款

谁能得到面试机会

曾经亚马逊等大厂都是用算法来筛选简历的

所有的女性候选人都会被算法拒绝

目前这个算法已被停用

MIT的黑人女学生Joy Buolamwini发现

人脸识别技术存在极大的偏见

如果你是黑人女性

有35%的概率是无法被软件识别的

甚至只有戴上白人的面具

你才被计算机识别为人类

很多软件还没有适应一个黑色皮肤的人类

因为所谓的被接受到的大数据信息里

有75%是男性,其中80%是白人

如果从一开始你给计算机的大数据

就是带有偏见的

那么计算机的算法怎么可能是正确中立的呢?

另外没有任何面部分析系统是完全准确的

亚马逊的面部识别系统Rekognition

将Oprah Winfrey识别为男性

它还将28名国会议员与面部照片数据库

进行了错误匹配

2019年另一个面部识别工具错误地

将布朗大学的一名学生标记为

斯里兰卡爆炸案的嫌疑人

算法一个重要的作用就是通过分析网上行为

对人类的未来的行为做出预判

因此人脸识别已经被用于法庭来

预判个人危险度

结果是黑人被告的预估风险大约高于白人2倍

看来没有情感的算法比开地图炮的键盘侠

还更加偏执

甚至是你要做多长时间的监狱

都是由某个算法说了算

许多警察部门使用人脸识别技术来识别嫌疑人

并进行逮捕

一次错误的匹配可能导致错误逮捕、长期拘留

甚至是致命的警察暴力

这不禁让我联想到了《心理测量者》

动画《心理测量者》(PSYCHO-PASS)描绘了一个独裁的反乌托邦未来社会,无处不在的监视器会不断扫描每一个经过的市民的精神状态。亦会预测一个人犯罪的可能性,并把其数值化,成为“犯罪指数”。如果超过门槛则会被公安局刑警追捕,甚至是就地处决。

黑人女性Tonya LaMyers被算法

定义为“高风险人类”

因此她需要每周都去“办事处”进行自我报告

但事实上她有份很好的工作

并收到两份推荐信

一份来自费城市议会,另一份来自费城市长

然而算法因为肤色推翻了事实

如果因为需要每周进行自我报告失去工作

这将会使Tonya的状况更糟糕

Uber在去年推出了“实时身份检查”的功能

照片审查是由机器自动审查的

提交照片后很多黑人未能验证自己的身份

并在第二次尝试验证后账户被停用

其中一位司机Hasan

前往伦敦总部进行进一步咨询

前台的工作人员证实了

自拍照和Uber文件中的个人资料照片相符

但这仍然无法改变账号被停用的事实

Uber的面部识别技术是由微软提供

就连微软总裁

在19年接受采访时都承认了

目前人脸识别识别女性的成功率小于男性

对很多有色人种来说可能出现

各种错误无法识别

然而伦敦的Uber司机95%都是有色人种

Uber对于他们来说是很重要的经济来源

如果因为他们的肤色

人工智能拒绝你做为Uber司机的话

对很多家庭都是严重的打击

人脸识别仍然是一项强大的技术

在刑事司法和日常生活中都具有重要意义

科技行业的大数据缺乏多样性

是因为其算法通常由主导技术领域的

白人工程师编写

当程序员构建算法时

可能仅仅专注于在一个种族(白人)中突出的特征

而忽视其他族裔

这些研究大概率都有自身的偏见

和工程师自己的经验和理解

“我们的社会制度总是首先由人创造的,是人类告诉机器该怎么去思考”,乔治敦大学的教授Amy Zalman说道。

技术当然并不只是服务于白皮肤的人

但算法依旧Ctrl C+V了原始数据中

明显存在的相同偏见

通过对人工智能进行足够的“训练”

并输入具有广泛代表性的人群数据库

可能会消除算法的偏见

但以一个完美准确的方式对人进行分类

仍然是一个需要讨论的伦理问题

毕竟不是算法决定了人类的未来

而是人类决定了算法的未来