AI招聘渐热,“反就业歧视”当加速从立法到算法的转化


□蒋璟璟

近年来,利用算法进行AI招聘已成为职场中的一大新热点,如何规避AI算法可能带来的歧视问题成为保障就业公平面临的一个新问题。一些在AI招聘领域迈出实质性步伐的企业和机构表示,AI招聘可以避免主观因素的干扰,更好地对应聘者能力与岗位需求进行匹配。然而,偏见和歧视也可能通过算法更隐晦地内嵌到决策系统当中,悄无声息地侵蚀就业公平。

算法从来不是中立的,而是一种数字化的价值观集合。所谓AI招聘看似超脱、去人格化,实则其大模型预训练之初,就已被嵌入了各种“偏好”与“偏见”。只是,与真人面试的场景不同,应聘者很难从冰冷的AI程序中读出任何的表情与反馈——当“招聘者就如同机器人”变成“招聘者就是机器人”,技术工具所带来的效率与公平幻想,又瞬间被一种莫名的空洞感和内心彷徨所冲散。

大量招聘需求与求职需求聚集于平台,带来了海量的数据积累。目前,已经有多家招聘平台对外宣称,开始探索通过AI算法为数据赋能。“赋能”作为烂大街的互联网行业黑话,在招聘场景下的新运用,又有了某种可疑的意涵。这里所言“赋能”,显然是以平台和雇主的立场而论的,指向了在简历筛选、笔试面试等各个环节的“增效”。比如说,一些AI招聘算法,可以从已知数据中准确推测求职者的婚育状况,自主学习能力会放大社会固有的部分性别偏见……这种赋能,于求职者而言,或许就意味着更多的“不可能”。

当AI招聘系统,不是设定为实现劳动力资源要素最优化配置,而是单方面被设定为“提高招人的效率”“降低用工的成本”。那么,其直接后果显然是,加剧了劳资双方本就存在的力量失衡局面,使得求职者在这场博弈中,处于更为被动和不利的位置。新技术所带来的红利,从来不是均质分布的。当雇佣者拥有了这一强力工具,招聘者所感受到的无力感,迫切而强烈。在AI招聘的算法暗箱前,个体很难有招架之力。

治理就业歧视,立法层面已有一系列成熟而完善的制度安排。而在AI招聘异军突起的今天,又该如何尽快把上述立法精神转化到针对算法的价值引导和技术规范之中?只有回答好这一问题,才能在未来的劳动力市场,真正捍卫求职者的权利公平。