墨尔本大学的一项新研究表明,聘用算法往往会对女性产生性别偏见。
实际上,研究人员进行了一项研究,为招聘人员提供了在UniBank工作的真实简历。角色是数据分析师,财务官和招聘官,通常分别是男性为主,性别平衡和女性为主。
一半的招聘人员被赋予了性别,其余的则获得了简历,传统上都是女性,男性则被互换。然后,他们被告知要为每个角色选择前三个简历。
通过审查他们的选择,研究人员发现,尽管他们与女性具有相同的资历,但他们倾向于偏爱男性候选人。招聘人员更有可能给男性更高的职位。
研究人员使用这些统计数据,然后开发了一种招聘算法,该算法根据招聘人员的偏好对候选人进行排名,因此发现它还考虑了他们的偏见。确实,如果训练该算法根据数据对候选人进行排名,则可以假定拥有男性名字对获得这份工作是有益的。
此外,还发现即使AI姓名已被删除,但AI仍倾向于男性候选人,因为AI已按照小组的偏好进行了培训。
尽管该研究仅依赖于一小部分数据,但在大公司中发现此类性别偏见是很普遍的。例如,亚马逊最近不得不删除其歧视女性候选人的招聘算法工具。这是由于AI对男性简历进行了培训。
此外,如果更先进的Ais在“黑匣子”内运作而没有人为监督或透明,那么任何偏见都有可能进一步增加。
但是研究表明,可以通过提高AI算法的透明度来降低这些风险。在开始训练机器之前,仍然存在需要解决的人为偏见问题。
[关于我们]
龙测科技——一站式通用自动化软件测试TestOps平台
画流程图、积木图自动生成测试代码的自动化测试专家