实验性AI算法揭示了招聘过程中的性别偏见

2020-12-16  海鹅 

墨尔本大学的一项新研究表明,聘用算法往往会对女性产生性别偏见。

 

实际上,研究人员进行了一项研究,为招聘人员提供了在UniBank工作的真实简历。角色是数据分析师,财务官和招聘官,通常分别是男性为主,性别平衡和女性为主。

 

一半的招聘人员被赋予了性别,其余的则获得了简历,传统上都是女性,男性则被互换。然后,他们被告知要为每个角色选择前三个简历。

 

通过审查他们的选择,研究人员发现,尽管他们与女性具有相同的资历,但他们倾向于偏爱男性候选人。招聘人员更有可能给男性更高的职位。

 

研究人员使用这些统计数据,然后开发了一种招聘算法,该算法根据招聘人员的偏好对候选人进行排名,因此发现它还考虑了他们的偏见。确实,如果训练该算法根据数据对候选人进行排名,则可以假定拥有男性名字对获得这份工作是有益的。

 

此外,还发现即使AI姓名已被删除,但AI仍倾向于男性候选人,因为AI已按照小组的偏好进行了培训。

 

尽管该研究仅依赖于一小部分数据,但在大公司中发现此类性别偏见是很普遍的。例如,亚马逊最近不得不删除其歧视女性候选人的招聘算法工具。这是由于AI对男性简历进行了培训。

 

此外,如果更先进的Ais在“黑匣子”内运作而没有人为监督或透明,那么任何偏见都有可能进一步增加。

 

但是研究表明,可以通过提高AI算法的透明度来降低这些风险。在开始训练机器之前,仍然存在需要解决的人为偏见问题。

[关于我们]


龙测科技——一站式通用自动化软件测试TestOps平台

画流程图、积木图自动生成测试代码的自动化测试专家

测试体验官网


160°/1600 人阅读/0 条评论 发表评论

登录 后发表评论