機械学習と人事管理の衝突について話しましょうか?
はじめに
近年、機械学習の分野で多くの大きな進歩があり、人工知能技術によって推進される人材管理サービス製品も巨大でダイナミックな市場を持っています。ますます多くの企業や政府機関が、機械学習テクノロジーを人事管理に適用し、ニューラル ネットワークを通じて効果的な意思決定を行い、人事管理の結果を正確に予測することを検討しています。
この記事では、主に技術的な困難さ、人事管理の意思決定システムの紹介、システム設計方法、システムのセキュリティなど、機械学習を人材管理研究に適用する4つの側面を紹介します。読者が予備的な理解を得ることができることを願っています。関連する研究。
技術的な困難
2019 年に米国の大企業 20 社の CEO が関連セミナーを実施した結果、機械学習テクノロジーの応用が人事管理の分野で特有の課題に直面していることがわかりました。価値のある HRM 意思決定システムの開発には、技術的な課題だけでなく、HRM の結果に固有の複雑さのベクトル化や、影響を受ける従業員やその他の利害関係者の選択に関する対処が困難なデータ、倫理的、法的制約、懸念も伴います。このプロセスは物議を醸していると一部の人が信じています。人事管理の決定では、法的異議の影響を受けやすい選考手順、または従業員やその他の利害関係者によって物議を醸すとみなされる選考手順を回避する必要があります。
この概要には次の側面があります:
- 人事管理における機械学習の応用を探るための一連の研究開発プロジェクトを確立および監督する方法
- NLP ベースの意思決定支援システムを効果的に開発する方法
- 意思決定支援システムをテストして、意思決定での使用が安全であることを確認する方法
- 開発およびテスト後にシステムを適切な用途に正常に変換する方法。
人事管理意思決定システムの概要
人事管理意思決定システムの実装は、次の課題に直面しています:
- システムは意思決定を自動化するべきか、人間の意思決定者に入力を提供すべきか、それとも相互作用すべきか意思決定プロセスを別の方法で行うにはどうすればよいでしょうか?
- 人間の意思決定者はどのような入力を必要としますか?また、これらの入力を提供する候補となる機械学習システムはどの程度効果的ですか?
- さまざまな候補者システムで現在利用可能な機能のレベルを考慮すると、さまざまな種類の意思決定支援にはどのようなリスクがありますか?
このフレームワークは、設計と人材管理を概念化するための機械学習システムの原理を示しています。このフレームワークの背後にある考え方は、システム設計はシステムの最優先目標と切り離せないということです。 HRM 目標は、設計者が機械学習で HRM の意思決定プロセスをサポートできるさまざまな方法を選択するのに役立ちます。実装の設計は、システムの評価方法に影響を与えます。たとえば、意思決定を自動化するシステムは、その精度やその他の重要な基準に基づいて評価される場合があり、入力を提供するシステムは、入力の精度と、入力が全体的な意思決定の結果にどのように影響するかに基づいて判断する必要があります。システムがセキュリティ標準を満たしていない場合は、設計者が人事管理の目的にとって価値があり、セキュリティ パラメータを満たすことができるシステムを取得できるまで、実装設計を変更する必要があります。
図 機械学習システムのフレームワーク
システム設計方法論
開発の初期段階では、機械学習ベースの入力を意思決定に統合するための設計オプションが多数あります。デザインは、タイミング (例: 人間が決定を下す前または後) と影響の程度 (例: オプションを推奨するか、重要な機能に注意を向けるか) の点で異なります。ここでは、機械学習意思決定システムの 5 つの主要な設計実装を取り上げます:
意思決定時に、機械学習システムは人事管理記録をスコアリングし、人間の意思決定者の介入なしに自動的に意思決定を行います。
2. お勧めします。機械学習システムは、人間の意思決定者に追加の入力として推奨事項を提供します。
3. スコア。機械学習システムは、追加の入力として人間にスコアを提供します。
4. 概要。機械学習システムは、人間の意思決定者のために自動的に要約します。
5. 監査。機械学習システムは、監査プロセスの一環として、人間の意思決定者によるレビューのために異常にフラグを立てます。
設計プロセスは、機械学習システムの優先目標を決定することから始まります。表に示すように、目標の組み合わせが異なると、異なる設計実装が必要になります。
写真
これらの目標は、評価プロセスの有効性の潜在的な尺度も示しています。たとえば、目標が作業負荷の削減である場合、システムは人間の意思決定者の数や評価の記録に費やす時間を削減する必要があります。目標が人間の意思決定の向上である場合、システムは意思決定の質の向上に役立つ必要があります。証拠に基づいて評価することで、重要な人事管理の成果にさらに貢献します。
物語記録を自動的に要約する機械学習システムは、意思決定支援のモデルとして機能します。個人の人事レコードのほとんどは、自由形式のテキストと個人の属性の 2 種類に分かれています。タスクリスト、責任の説明、主な成果の概要などの自由形式のテキスト。人事属性は、経験年数、功績順位、昇進試験のスコアなど、事前に定量化され、解釈可能な、管理に役立つデータです。後者のタイプの情報は、モデルや視覚化での処理と使用が容易ですが、十分な情報に基づいて人事管理の意思決定を行うには、前者のタイプの情報も必要です。
管理処理の決定には、記録の慎重なレビューと、経験豊富な担当者による手動レビューまたはスコアリングプロセスが必要です。手動レビューをサポートすると考えられるさまざまな設計実装の中で、「概要」が最も多用途です。これは、すべての人的資源管理目標と中程度または高度に一致する唯一の設計です。自動化された要約は、フィードバックの提供、透明性の向上、人間の意思決定の精度の向上に役立ち、手動作業負荷の標準化と削減にも少なくともある程度役立ちます。同時に、概要実装では意思決定プロセスに対する高度な手動制御が維持されるため、他の設計よりもセキュリティ基準を満たす可能性が高くなります。実際、要約はシステムが重要とみなすテキストの要素を強調しており、したがってシステムの決定の説明になります。したがって、概要は、管理者が他の設計実装におけるモデルの出力を理解するのに役立ちます。
システム セキュリティ
人事管理の決定は、企業の将来に影響を与える重要な要素です。したがって、意思決定プロセスに重大な変更を加える場合には、「まず害を及ぼさない」という原則を採用する必要があります。機械学習への投資が増加するにつれて、機械学習 (およびより広範な人工知能) の責任ある倫理的な使用に関する規範的なガイダンスを提供することを目的とした、豊富な研究および政策文書が作成されています。
たとえば、メンバーのプライバシーを保護するための既存のルールとフレームワークは、あらゆる開発プロジェクトに引き続き適用されます。開発と展開の際、3 つの原則はシステムのテストに特に関連しており、機械学習システムが正確、公平、解釈可能であることが求められます:
精度とは、機械学習システムまたはそれに含まれるモデルが、高い確率で関心を正確に予測することを意味します。の結果。
公平性とは、機械学習システムがサブグループを平等に扱うことを意味します。
説明可能性とは、機械学習システムの結果につながる要因と関係を人間が理解できることを意味します。
これらの安全基準は時々相互に矛盾します。公平性を高めるために、設計者はシステムに制限を課して、その精度や解釈可能性を低下させる場合があります。解釈可能性を高めるために、システム設計者は、より解釈しやすい (ただし柔軟性に劣る) モデリング手法を使用することがありますが、これは精度と公平性に影響を与える可能性があります。テストには、人的資源管理の目標および法的および倫理的制約を満たす設計に到達するために、正確性、公平性、説明可能性のバランスを考慮する必要があります。
公平性に関しては、公平性の単一の定義はなく、競争タイプの公平性を満たすことは多くの場合不可能であることに注意することが重要です。したがって、政府機関はテストを進めるために定義を選択する必要があります。ここでは、人事管理プロセスまたはアルゴリズムが異なるサブグループのメンバーを平等に扱うことを保証する手続きの公平性と、モデルまたはプロセスの結果に偏りがあるかどうかをチェックする結果の公平性が区別されます。
最後に、HRM の目標を達成するには、説明可能性が重要です。なぜなら、システムがより良い意思決定にどのように貢献するのか理解していないと、システムを無視したり悪用したりする可能性があるからです。さらに、ユーザーのタイプが異なれば必要な説明レベルも異なるため、説明可能性の定義は対象ユーザーと切り離すことができません。設計者は、本質的に解釈可能なモデルを使用して解釈可能性を高めることを検討できます。また、人間参加型テストを実施して、ユーザーがシステムの機能をどの程度理解しているかを評価することもできます。
簡単なまとめ
この記事では主に、技術的困難さ、人事管理意思決定システムの紹介、システム設計手法、システムセキュリティの4つの側面から人事管理分野における機械学習の研究を紹介します。この研究について予備的な理解を求めている読者に役立つことを願っています。
以上が機械学習と人事管理の衝突について話しましょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

平たく言えば、機械学習モデルは、入力データを予測された出力にマッピングする数学関数です。より具体的には、機械学習モデルは、予測出力と真のラベルの間の誤差を最小限に抑えるために、トレーニング データから学習することによってモデル パラメーターを調整する数学関数です。機械学習には、ロジスティック回帰モデル、デシジョン ツリー モデル、サポート ベクター マシン モデルなど、多くのモデルがあります。各モデルには、適用可能なデータ タイプと問題タイプがあります。同時に、異なるモデル間には多くの共通点があったり、モデル進化の隠れた道が存在したりすることがあります。コネクショニストのパーセプトロンを例にとると、パーセプトロンの隠れ層の数を増やすことで、それをディープ ニューラル ネットワークに変換できます。パーセプトロンにカーネル関数を追加すると、SVM に変換できます。これです

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

MetaFAIR はハーバード大学と協力して、大規模な機械学習の実行時に生成されるデータの偏りを最適化するための新しい研究フレームワークを提供しました。大規模な言語モデルのトレーニングには数か月かかることが多く、数百、さらには数千の GPU を使用することが知られています。 LLaMA270B モデルを例にとると、そのトレーニングには合計 1,720,320 GPU 時間が必要です。大規模なモデルのトレーニングには、これらのワークロードの規模と複雑さにより、特有のシステム上の課題が生じます。最近、多くの機関が、SOTA 生成 AI モデルをトレーニングする際のトレーニング プロセスの不安定性を報告しています。これらは通常、損失スパイクの形で現れます。たとえば、Google の PaLM モデルでは、トレーニング プロセス中に最大 20 回の損失スパイクが発生しました。数値的なバイアスがこのトレーニングの不正確さの根本原因です。
