人力资源分析的道德基准

你在这里:
人力资源分析的道德基准

对待人性,无论是你自己的人性,还是任何其他人的人性,绝不仅仅是作为达到目的的手段,而总是同时作为目的。
- - - - - -伊曼努尔•康德。

人力资源分析被定义为系统地识别和量化业务成果的人员驱动因素。从康德的人的原则来看,这个定义没有承认人本身就是目的。问题是:我们如何确保人力资源分析是合乎道德的?在这篇文章中,我们讨论了算法道德基准测试的现状,并为该领域的从业者提供建议。

算法评估

我们如何评估我们算法的伦理?《欧洲通用数据保护立法》(GDPR)等法律框架为区分是非提供了指导。然而,合法的并不总是道德的。

GDPR确立了同意权、访问权、被遗忘权和知情权。然而,它并没有强制员工参与人力资源分析的开发和应用。正如我们一次又一次地看到的,公共政策往往无法跟上技术发展的速度。这意味着员工往往很少或根本没有机会让他们的利益得到代表和保护。

变化的速度-技术-个人-企业-公共政策

虽然现有的伦理框架,如赫尔辛基宣言,心理学家的伦理原则美国心理学会(APA)或IEEE全球自主和智能系统伦理倡议的研究,让我们在这个未知的领域中走得更远,它们也经常超过它们的“最佳之前”日期。例如,APA指南的最后一次修订日期为2016年。

由于缺乏道德和法律先例,人力资源分析团队往往拥有相当大的自主权。很少的指导和相互竞争的商业利益为违反道德提供了肥沃的土壤。

相关(免费)资源!继续往下读↓

51人力资源指标备忘单

数据驱动的人力资源从实施相关的人力资源指标开始。下载51个人力资源指标的免费小抄

语境的作用

类似于有效性在评估我们决策的道德性时,我们需要时刻意识到,在一个组织行得通的东西,在另一个组织可能行不通。最终被认为是对的还是错的,通常是非常特殊的环境下做出的决定,以及独特的利益相关者的集合。

话虽如此,我们可以利用从过去的道德违规中吸取的框架和教训。通过在巨人的肩膀上建造来填补空白,比如伊曼努尔·康德。

你可能听说过人工智能算法的恐怖故事。这些包括亚马逊有性别偏见的人工智能招聘工具,谷歌有种族主义面部识别,还有脸谱网根据性别和种族进行歧视的广告服务算法。让我们假设组织都在努力遵守道德规范(这对我们中的一些人来说可能已经是一种想象了)。这些拥有看似无穷无尽资源的Giga公司,仍然都成为输入数据偏见的受害者,引发了不想要的和无意的结果。垃圾进就是垃圾出。如果你不积极控制数据中的偏差,你的干预充其量是次优的。

我们如何评估人力资源分析的道德问题的答案在于基准。基准测试属性,并根据它们所代表的道德框架提供分数。这极大地促进了评估人力资源分析伦理的系统方法。具体来说,通过强迫我们开发和应用标准化的度量,基准测试允许我们对上下文进行编码。这使我们能够将新病例与现有技术进行比较和对比。

游戏的名称是确保我们的道德基准包含所有相关标准和关于这些标准的证据。使我们能够就组织范围内部署特定算法是否道德的问题得出有效的裁决。在这一点上,无知不是福。确实值得注意的是,前面提到的三个道德框架都强调了能力的根本重要性。

当前道德框架的主要主题是隐私、同意、问责、安全和保障、透明度和可解释性、公平和非歧视、人类对技术的控制、职业责任和促进人类价值观。与这些主题交织在一起的,是建立内部、构建和外部有效性的需要(如上所述)在其他地方).在处理和利用数据期间,每个关注点都会影响工作流的设计和实现。主题之间也有相互作用。如果你没有保护你的数据,你如何保护隐私的基本原则?如果你不知道你的算法是否对种族、性别或其他更人为的品质有不适当的偏见,你怎么能真正促进人类的价值观呢?你怎么能对一个没有内在有效性的算法承担职业责任呢?如果在一个问题领域没有一个一致的应用框架,你的道德准则的焦点就会有所不同。然后,你需要衡量什么来实现道德基准也将。此外,基准测试可以在透明度和可解释性方面发挥重要作用。

然而,增加复杂性的是优化算法的基本方法正在迅速发展。我们正在进入一个时代自动化机器学习(AutoML)算法会选择一组最优的算法来提供优化的解决方案。

一个探索解释人工智能的新方法的新领域被称为可解释AI (XAI).看看XAI方法将如何嵌入到AutoML解决方案中将会很有趣。十有八九,在未来十年,人力资源分析师将被留下来处理有趣的附带案例。作者期待着该领域的民主化和优化模型选择的自动化。

让它变得实用

在错综复杂的道德要求下,我们此刻能取得什么成就?

  • 首先,要合法。围绕人工智能已经有了法律限制,例如,与数据处理相关的隐私,GDPR是主要的例子,但反歧视等其他法律也可能适用。

    Frederik Zuiderveen Borgesius教授最近为欧洲委员会做的一项研究人工智能和歧视请注意,虽然有法律框架,但它们是针对某些类别的,如对肤色或性别的偏见。然而,人工智能可能会在新的人工类别中产生偏差,这取决于数据的底层结构以及变量或特征是如何操作的。
  • 其次,阐明你的价值观,并努力遵守它们。虽然谷歌笼统的“不作恶”这句话可能会让人有所期待,但它为审查和审查打开了大门批判.在道德标杆方面,批评是免费的建议。
  • 第三,跟踪变化。认识到人工智能是有影响力的,因此可能会产生不会消失的竞争优势,因此值得早期投资。记录我们如何处理研究和开发中面临的无数决定,不仅有助于道德问责,还有助于与关键利益相关者的沟通。
  • 第四,着眼于相邻的实践领域。一个实用的AI道德基准需要关注一组特定的属性或符合基本道德原则的指标,这些属性或指标是可测量的,并且与人员分析问题领域相关。它需要封装具有人力资源领域代表性的人工智能判断的关键操作特征。

    当我们处理影响真实人群的决策时,我们需要区分诊断和干预目的。这与医疗领域具有类似的特性,例如,您可以使用一个设备来评估您的健康状况,而另一个设备则保持心脏跳动,并在出现异常时进行干预。一般来说,第二类影响更直接,因此应密切监测。FDA目前正在审查如何立法软件作为医疗设备(SaDM)。
  • 第五,回顾可操作基准的示例,例如AI公平360该机构使用多种方法进行评估。为了获得经验,考虑运行他们的之旅.您注意到的是,目前要在数据抽样中保持偏差,需要对细节有详细的理解。人类需要参与其中。当然,这可能会随着时间的推移而改变,但技术基准只与那些配置和部署它们的人的理解一样好。无偏见的培训数据也是为了培训你的员工。
  • 第六,考虑如何在您的过程中以共同开发为目标。改变我们对人工智能培训的偏见会影响发明的产生者。因此,干预措施本身需要进行一些调整。一旦你从你的数据样本中删除了偏见来源,考虑与那些受你的决定影响的人共同开发的新阶段。只有这样,你才有机会认识康德的人性原则。
  • 第七,审计跟踪。垃圾输入就是垃圾输出,小心你的样本大小和方法。例如,人类对数据进行注释,这样人工智能就可以根据这些注释进行训练。通过训练,人类可以运用自己的偏见。因此,我们建议对您在生命周期中所做的事情进行审计跟踪。人工智能是组织的反映。可审计的生命周期使您能够在以后提供验证,以显示控制并改进流程。
  • 最后,考虑作为一个社区来提供培训、例子和共享空间,以收集经验、道德实践以及最佳AI模型和基准。我们的问题领域有其独特的需求,我们作为一个社区最适合评估这些需求。对于那些从邻近领域寻找这方面的例子的人,然后回顾ai实验室放射科医生。

人力资源分析实验室将成为培养和加强想法、共享基础知识、协商和采用机械化基准执行的道德实践的核心资源。一个社区友好,为未来做好准备的训练场。

订阅我们的每周通讯了解最新的人力资源新闻、趋势和资源。

你准备好迎接HR的未来了吗?

在线学习现代和相关的人力资源技能

浏览课程 现在招收