杭州一个姑娘,名校硕士,英语专八,去某大厂面试。前面几轮都过了,最后一轮是AI视频面试。她回答完问题,系统弹出一行字:“您的方言口音较重,可能影响团队协作,暂不匹配。”

她懵了。她是四川人,普通话二甲证书在手,老师说她发音标准。但AI说她有口音,她就有口音。没有复议,没有申诉,没有人工复核。她的简历,就这么被一个算法刷掉了。

她气得想告。律师说:可以告就业歧视,但你要举证算法有偏见。

问题来了:你怎么举证一个黑箱有偏见?

美国亚马逊干过同样的事。他们开发了一个AI招聘系统,用来筛选简历,结果发现系统严重歧视女性——因为它学了十年间投进来的简历,而科技行业过去十年大部分简历来自男性。系统“学会”了:男性申请者更优秀。于是只要简历里出现“女子”两个字,比如“女子象棋冠军”,系统自动降分。

亚马逊后来把这个项目关了。但问题没有消失。

今天国内大部分大厂的初筛环节,都已经交给AI了。问题是,这些AI的训练数据里,藏着多少偏见?有没有学校歧视?有没有性别歧视?有没有地域歧视?你不知道。因为算法模型是黑箱,训练数据是商业秘密,判定逻辑是核心资产。你唯一知道的就是结果——你被刷了。

怎么破?

欧洲走了一条路。《通用数据保护条例》第22条明确规定:公民有权不受完全自动化决策的约束。也就是说,如果AI刷了你,你有权要求机器后面站出来一个真人,告诉你为什么。

国内没有这条。所以你能做的只有一件事:保留所有证据。面试录屏、系统回复、邮件通知,全部截屏存证。然后去找劳动监察,或者找媒体。

别觉得没用。杭州那个姑娘后来找了电视台记者,节目播出后,那家大厂的PR打了三个电话给她道歉,说“系统已优化”。虽然她还是没有拿到那个岗位。但她让那家公司知道了一件事:AI不是裁判,你才是。