人力资源部门如何更好地利用人工智能系统来防止歧视、偏见和不平等。就业歧视一直是一个挑战,人工智能的引入使问题变得更加复杂。人工智能算法对于非技术业务用户来说通常是“无法解释的”,并且它们的功能很快就会出错——,从而使偏见长期存在,而不是解决它。而且,当招聘场景非常规时,如果没有人注意到,未经充分测试的算法可能会扭曲结果。计算机协会(ACM) 举办了公平、问责和透明度(FAccT) 年度会议,探讨人工智能、机器学习(ML) 和数据科学与偏见的关系。会议的主要关注领域之一是招聘歧视。我们研究了会议上提出的一些开创性论文和研究,并利用他们的研究结果为人力资源部门提供有关建立最少歧视性招聘流程的见解。人力资源部门如何管理人力资源技术带来的招聘歧视。我们采访了康奈尔大学和卡迪夫大学的团队,询问他们对招聘过程中的招聘歧视问题的看法。尊敬的用户:
禁止访客访问当前内容!
立即注册/登录了解更多
上一篇:
人才解决问题(人才市场态度恶劣)
相关资讯