目录
前  言
技术难点
系统设计方法
系统安全性
小  结
首页 科技周边 人工智能 聊聊机器学习与人力资源管理碰撞什么火花?

聊聊机器学习与人力资源管理碰撞什么火花?

Apr 26, 2024 am 10:25 AM
机器学习 人力资源 管理

前  言

近年来,机器学习领域取得了许多重大突破,人工智能技术驱动的人力资源管理服务产品也拥有一个巨大且充满活力的市场。越来越多的企业和政府机构逐渐开展思考将机器学习技术应用于人力资源管理,通过神经网络做出有效的决策,准确地预测人力资源管理的结果。

本文介绍了将机器学习用于人力资源管理研究的四个方面,主要包括技术难点、人力资源管理决策系统简介、系统设计方法和系统安全性,期望读者可以初步了解相关研究。

技术难点

2019年,美国20家大公司的首席执行官进行了相关的研讨会,结果表明,机器学习技术应用在人力资源管理领域面临着独特的挑战。开发有价值的人力资源管理决策系统不仅仅有技术的挑战,还需要向量人力资源管理结果的固有复杂性方面的障碍,以及难以解决的数据、道德、法律约束和对受影响员工或其他利益相关者认为有争议的选择程序。人力资源管理的决策需要避免容易挑战法律的选择程序,或者员工或其他利益相关者认为有争议的选择程序。

总结有如下几个方面:

  • 如何建立和监督一系列研究和开发项目,探索机器学习在人力资源管理中的应用;
  • 如何有效地开发基于NLP的决策支持系统;
  • 如何测试决策支持系统以确认它们在决策中使用是安全的;
  • 一旦系统被开发和测试,如何成功地将系统转换为可接受的使用方式。

人力资源管理决策系统简介

人力资源管理决策系统的实现面临如下挑战:

  • 系统应该自动化决策,为人类决策者提供输入,还是以其他方式与决策过程交互?
  • 人类决策者需要什么样的输入,候选机器学习系统在提供这些输入方面有多有效?
  • 考虑到当前不同候选系统可用的功能级别,不同类型的决策支持的风险是什么?

这个框架展示了一个用于概念化设计和人力资源管理的机器学习系统的原则。框架背后的理念是,系统设计与系统的最高优先级目标是不可分割的。人力资源管理目标帮助设计者从机器学习支持人力资源管理决策过程的许多可能方式中进行选择。实现的设计反过来又影响系统的评估方式。例如,自动化决策的系统可以根据其准确性或其他重要标准进行评估,并提供输入的系统必须根据输入的准确性以及它们如何影响整体决策结果进行判断。如果系统不能满足安全标准,则必须修改实施设计,直到设计人员能够得到一个对人力资源管理目标有价值的系统,并且能够满足安全参数。

聊聊机器学习与人力资源管理碰撞什么火花?图 机器学习系统框架

系统设计方法

在开发的早期,有许多设计选项可将基于机器学习的输入整合到决策制定中。设计在时间(例如,在人类制定决策之前还是之后)和影响程度(例如,推荐一个选项还是将注意力引导到重要功能上)方面有所不同。这里将重点介绍机器学习决策系统的五个主要设计实现:

在决定时,机器学习系统对人力资源管理记录进行评分,并在没有人类决策者参与的情况下自动做出决策。

2. 推荐。机器学习系统向人类决策者提供建议,作为额外的输入。

3. 得分。机器学习系统将分数作为额外的输入提供给人类。

4. 总结。机器学习系统自动为人类决策者总结。

5. 审计。机器学习系统标记不正常的情况,供人类决策者审查,作为审计过程的一部分。

设计过程从确定机器学习系统的优先级目标开始,不同的目标组合需要不同的设计实现,如表所示。

聊聊机器学习与人力资源管理碰撞什么火花?图片

这些目标还指出了评估过程的有效性的潜在度量。例如,如果目标是减少工作量,系统应该减少人类决策者的数量或他们花费在记录评分上的时间;如果目标是改善人类的决策,系统应该有助于提高决策的质量,通过证据来衡量决策更好地促进重要的人力资源管理结果。

自动总结叙事记录的机器学习系统可以作为决策支持的一种模式。一个人的大部分人力资源记录分为两种自由格式的文本和人员属性。自由格式的文本,如任务列表、职责描述和主要成就总结。人员属性是预先量化的、可解释的、对管理有用的数据,例如经验年限、功绩顺序或晋升测试分数。虽然后一种类型的信息更容易在模型或可视化中处理和使用,但前一种类型的信息也是做出充分知情的人力资源管理决策所需要的。

管理层处理决策需要对记录进行深思熟虑的审查,并由经验丰富的人员执行手动审查或评分过程。在为支持手工评审而考虑的各种设计实现中,“总结”是最通用的。这是唯一与所有人力资源管理目标适度或高度一致的设计。自动总结对于提供反馈、增加透明度和提高人工决策的准确性非常有用,并且它们至少对于标准化、减少人工工作量有一定的用处。同时,总结实现保持了对决策过程的高度人工控制,因此它比其他设计更有可能满足安全标准。事实上,总结突出了系统认为重要的文本元素,因此,它是对系统决策的一种解释。因此,总结可以作为一个有用的辅助工具,帮助管理人员理解其他设计实现中的模型输出。

系统安全性

人力资源管理决策影响企业未来的有生力量。因此,在对决策过程进行重大更改时必须采用“首先不伤害”的原则。随着对机器学习的投资增加,大量的研究和政策文件旨在为负责任的和合乎道德的使用机器学习(以及更广泛的人工智能)提供规范性指导。

例如,保护成员隐私的现行规则和框架将继续适用于任何开发项目。在开发和部署期间,有三个原则与测试系统特别相关,测试系统要求机器学习系统准确、公平和可解释:

准确性意味着机器学习系统或它包含的模型以高概率正确地预测感兴趣的结果。

公平性意味着机器学习系统平等地对待子组。

可解释性意味着人类可以理解导致机器学习系统结果的因素和关系。

这些安全标准有时会相互冲突。为了增加公平性,设计师可能会对系统施加限制,降低其准确性或可解释性。为了增加可解释性,系统设计者可能会使用更多可解释性(但灵活性较差)的建模方法,这可能会影响准确性和公平性。测试必须包括平衡准确性、公平性和可解释性,以达到满足人力资源管理目标以及法律和道德约束的设计。

关于公平,重要的是要注意公平没有单一的定义,而且往往不可能满足竞争类型的公平。因此,机构必须选择一个定义来推进测试。这里区分了程序公平性和结果公平性,前者确保人力资源管理过程或算法对不同子组的成员一视同仁,后者检查模型或过程结果是否存在偏见。

最后,可解释性对于实现人力资源管理目标至关重要,因为如果人们不了解系统如何有助于更好的决策,他们可能会忽略或滥用系统。此外,定义可解释性与目标受众是分不开的,因为不同类型的用户需要不同层次的解释。设计人员可以考虑使用本质上可解释的模型来增加可解释性,并且他们还可以进行人在循环测试,以评估人们对系统功能的理解程度。

小  结

本文主要从技术难点、人力资源管理决策系统简介、系统设计方法和系统安全性四个方面简要介绍机器学习用于人力资源管理领域的研究。期望可以对想要初步了解此研究的读者有所帮助。

参考文献:《Leveraging Machine Learning to Improve Human Resource Management》

以上是聊聊机器学习与人力资源管理碰撞什么火花?的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
3 周前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
4 周前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

一文带您了解SHAP:机器学习的模型解释 一文带您了解SHAP:机器学习的模型解释 Jun 01, 2024 am 10:58 AM

在机器学习和数据科学领域,模型的可解释性一直是研究者和实践者关注的焦点。随着深度学习和集成方法等复杂模型的广泛应用,理解模型的决策过程变得尤为重要。可解释人工智能(ExplainableAI|XAI)通过提高模型的透明度,帮助建立对机器学习模型的信任和信心。提高模型的透明度可以通过多种复杂模型的广泛应用等方法来实现,以及用于解释模型的决策过程。这些方法包括特征重要性分析、模型预测区间估计、局部可解释性算法等。特征重要性分析可以通过评估模型对输入特征的影响程度来解释模型的决策过程。模型预测区间估计

通透!机器学习各大模型原理的深度剖析! 通透!机器学习各大模型原理的深度剖析! Apr 12, 2024 pm 05:55 PM

通俗来说,机器学习模型是一种数学函数,它能够将输入数据映射到预测输出。更具体地说,机器学习模型就是一种通过学习训练数据,来调整模型参数,以最小化预测输出与真实标签之间的误差的数学函数。在机器学习中存在多种模型,例如逻辑回归模型、决策树模型、支持向量机模型等,每一种模型都有其适用的数据类型和问题类型。同时,不同模型之间存在着许多共性,或者说有一条隐藏的模型演化的路径。将联结主义的感知机为例,通过增加感知机的隐藏层数量,我们可以将其转化为深度神经网络。而对感知机加入核函数的话就可以转化为SVM。这一

通过学习曲线识别过拟合和欠拟合 通过学习曲线识别过拟合和欠拟合 Apr 29, 2024 pm 06:50 PM

本文将介绍如何通过学习曲线来有效识别机器学习模型中的过拟合和欠拟合。欠拟合和过拟合1、过拟合如果一个模型对数据进行了过度训练,以至于它从中学习了噪声,那么这个模型就被称为过拟合。过拟合模型非常完美地学习了每一个例子,所以它会错误地分类一个看不见的/新的例子。对于一个过拟合的模型,我们会得到一个完美/接近完美的训练集分数和一个糟糕的验证集/测试分数。略有修改:"过拟合的原因:用一个复杂的模型来解决一个简单的问题,从数据中提取噪声。因为小数据集作为训练集可能无法代表所有数据的正确表示。"2、欠拟合如

人工智能在太空探索和人居工程中的演变 人工智能在太空探索和人居工程中的演变 Apr 29, 2024 pm 03:25 PM

20世纪50年代,人工智能(AI)诞生。当时研究人员发现机器可以执行类似人类的任务,例如思考。后来,在20世纪60年代,美国国防部资助了人工智能,并建立了实验室进行进一步开发。研究人员发现人工智能在许多领域都有用武之地,例如太空探索和极端环境中的生存。太空探索是对宇宙的研究,宇宙涵盖了地球以外的整个宇宙空间。太空被归类为极端环境,因为它的条件与地球不同。要在太空中生存,必须考虑许多因素,并采取预防措施。科学家和研究人员认为,探索太空并了解一切事物的现状有助于理解宇宙的运作方式,并为潜在的环境危机

使用C++实现机器学习算法:常见挑战及解决方案 使用C++实现机器学习算法:常见挑战及解决方案 Jun 03, 2024 pm 01:25 PM

C++中机器学习算法面临的常见挑战包括内存管理、多线程、性能优化和可维护性。解决方案包括使用智能指针、现代线程库、SIMD指令和第三方库,并遵循代码风格指南和使用自动化工具。实践案例展示了如何利用Eigen库实现线性回归算法,有效地管理内存和使用高性能矩阵操作。

可解释性人工智能:解释复杂的AI/ML模型 可解释性人工智能:解释复杂的AI/ML模型 Jun 03, 2024 pm 10:08 PM

译者|李睿审校|重楼人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关方解释。可解释性人工智能(XAI)致力于通过让利益相关方理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。可解释性人工智能至关重要的几个原因信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动 May 30, 2024 pm 01:24 PM

MetaFAIR联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。据所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个GPU。以LLaMA270B模型为例,其训练总共需要1,720,320个GPU小时。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练SOTA生成式AI模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的PaLM模型训练过程中出现了多达20次的损失尖峰。数值偏差是造成这种训练不准确性的根因,

你所不知道的机器学习五大学派 你所不知道的机器学习五大学派 Jun 05, 2024 pm 08:51 PM

机器学习是人工智能的重要分支,它赋予计算机从数据中学习的能力,并能够在无需明确编程的情况下改进自身能力。机器学习在各个领域都有着广泛的应用,从图像识别和自然语言处理到推荐系统和欺诈检测,它正在改变我们的生活方式。机器学习领域存在着多种不同的方法和理论,其中最具影响力的五种方法被称为“机器学习五大派”。这五大派分别为符号派、联结派、进化派、贝叶斯派和类推学派。1.符号学派符号学(Symbolism),又称为符号主义,强调利用符号进行逻辑推理和表达知识。该学派认为学习是一种逆向演绎的过程,通过已有的

See all articles