打开网易新闻 查看精彩图片

对AI的过度应用,使得面试双方平等、诚信、尊重等传统伦理在这些场景中骤然失效。

▲ 求职者现场体验AI面试。新京报贝壳财经记者 罗亦丹 摄
打开网易新闻 查看精彩图片
▲ 求职者现场体验AI面试。新京报贝壳财经记者 罗亦丹 摄

新京报社论

当AI招聘碰上了AI应聘,魔法能否打败魔法?

新京报报道,继不少企业通过AI面试官进行大规模面试后,市场上出现了帮助面试者应对“AI面试”的工具产品,广告声称“面试者实时生成面试答案,轻松拿下Offer”。

这一新闻引发讨论,是因为外界没有人能预测到,AI大模型之间的碰撞,竟然是率先发生在面试场景下。这原本应当是最需要人与人沟通、决策、判断的场景,随着AI工具的迅速应用,却变成了“机器人与机器人之间的战争”。

据报道,随着面试者开始使用AI工具进行面试,招聘者则通过AI进行“反作弊”,而在反作弊工具出现后,AI面试产品则定向推出了“反检测”功能。

不论从什么角度看,这都是一场莫名其妙的技术攻防战。让AI来作为面试官,并不应当是一个值得推荐的应用。面试本质上是对一个人的综合评定,而让机器来判断人,其实是用大数据形成的标签来简约化对人进行数据集的归类定性。从AI伦理上看,也是对人的主体尊严的冒犯。

面试者使用AI工具应对AI面试官,从面试的逻辑看,又涉嫌新技术逼迫下的“作弊”。当面试官是人时,AI工具作弊极容易被识别,但当对面换成了工具,那么,用工具来制衡工具,显然要比让人来应对工具的提问更合乎逻辑一些。

这一场技术战,起源于用人单位对于“人才”的不重视,视应聘者为“工具”,而应聘者在此种情境下,干脆用工具去欺骗工具,继而形成了双重伦理陷阱:招聘者不视人为人,求职者就坦然在面试中作弊。

这也是AI过度应用对传统伦理造成的挑战。我们社会习俗中对面试双方平等、诚信、尊重的要求,是基于人与人互动的关系而形成的共识。但对AI的过度应用,使得传统伦理在这些场景中骤然失效。仔细揣摩一下面试者的心理,当对方不再是人时,面试似乎就不必再遵循什么“诚信”之类的准则。

如果回到面试的本质上看,面试双方通过工具来“提升效率”的做法,事实上都只会造成双输的结局。

一个人是否匹配工作岗位,显然不是单纯的履历和材料等大数据可以决定的,还包括了性格、动机、状态等多方面。AI工具面试依据的规则和数据,只会第一轮就筛选掉那些有个性的、独特的、有创造性的人才,而后者显然才更符合未来人才的定义。

因此,用AI来提升的面试效率,实际上等于是把人才引进的标准交给了机器,而机器从概率上只会继续引入“符合机器定义的机械性人才”。

而对于求职者来说,用AI工具来面试,从技术和商业逻辑上看,个体所使用的大模型工具,不可能在技术水平上长期超越企业工具。

面试是典型的商业化应用场景一部分,而作为求职工具却缺少长期稳定的付费模式,且用户的付费能力较低,因此,后者很可能只是一些套皮的大模型,来收割求职者的韭菜而已。极有可能出现的情况是,求职者为了蒙骗AI面试官,又被人割了韭菜。

为企业大规模商业化应用而开发调试的大模型,理论上最终肯定比个人所使用的工具更加高效、精准。这也意味着,使用者不仅可能被割韭菜,还可能被识别“作弊”而永久失去一次求职机会。对于求职者来说,这可谓是双输的高危局面。

因此,不管是从伦理上看,还是工具使用的最终结果看,面试都不应该成为AI工具的博弈战场。尤其是其中潜藏的科技伦理问题,值得社会共同思考。简单地让AI工具去决定一个具体的人的命运,既有违科技伦理,也有违职业道德,更长期损害了所有参与者的利益。

编辑 / 徐秋颖

校对 / 付春愔

新京报评论,欢迎读者朋友投稿。投稿邮箱:xjbpl2009@sina.com

评论选题须是机构媒体当天报道的新闻。来稿将择优发表,有稿酬。

投稿请在邮件主题栏写明文章标题,并在文末按照我们的发稿规范,附上作者署名、身份职业、身份证号码、电话号码以及银行账户(包括户名、开户行支行名称)等信息,如用笔名,则需要备注真实姓名,以便发表后支付稿酬。