DataRobot ユースケース:求人の応募者のスコアリング【ビジネス適用】

2024/08/14
執筆者:
· 推定読書時間 2  分

増大する求人応募者のプールから最も資格のある候補者を見分けます。

意思決定環境 

使用するモデルを確定した後、DataRobot を使用すると、希望する意思決定環境にモデルを簡単にデプロイできます。意思決定環境とは、予測を最終的に意思決定に利用するための手法です。

意思決定の成熟度 

自動化 | 強化 | 混合 

雇用モデルを導入して実際に使用する方法はたくさんあります。採用担当者が読んで確認しなければならない申込書の数を減らすため、雇用モデルを合格/不合格の選考ツールとして使用する企業もあります。これで候補者に回答するまでの時間を短縮できます。

採用担当者がまず最も有望な候補者に集中できるように、スコアを利用して応募者を順位付けする企業もあります。最も洗練された方法は、混合アプローチです。「門前払い」になる値だけを前もってパイプラインから取り除くため、合格/不合格ラインを低めに設定します。そこから、採用担当者にスコアと予測の説明を提供し、優れた意思決定を短期間で行えるように支援します。 

モデルのデプロイ

1 つの役職への新規応募者をすべてバッチ処理(たとえば、1 時間ごとに 1 回)でスコアリングします。モデルから予測と予測の説明が返され、応募者追跡システムの基盤を成すデータベースに保存されます。 

意思決定の関係者

意思決定の実行担当者

最も直接的な利用者は採用担当者で、予測結果を毎日または毎週利用することになります。

意思決定の管理者

雇用担当マネージャーと最終的には最高人事責任者、および彼らのチームが、意思決定が正しく行われることを確認する責任を負います。

意思決定の作成者

データサイエンティスト、人事アナリスト、および産業心理学者/組織心理学者はすべて、DataRobot でモデルを構築できます。特定のデータ処理の問題(PDF など)がある場合は、IT サポート部門やベンダーにも参加してもらうことができます。

意思決定プロセス

以下に、このモデルから生成される予測に基づいて行える意思決定の例を示します。

  • 最低限の資格にかなっていない候補者を雇用パイプラインから削除します。
  • まず最も有望な候補者を確認します。
  • 各候補者の相対的な強みと弱みおよびその理由を明確に示すインサイトを活用して、採用担当者と雇用担当マネージャーのレビュープロセスを迅速化します。

モデルの監視 

データドリフト追跡でスコアリングデータとトレーニングデータに大きな隔たりが生じてきたら、モデルを再トレーニングする必要があります。加えて、役職が大幅に変更された(たとえば、職種の要件が変更された)場合もモデルを更新する必要があります。その場合、担当チームは、再トレーニングを実施する前に、これまでの応募者を最新の要件と照らし合わせて再スコアリングする必要があると考えられます。 

最後に、モデルの精度を評価する方法を慎重に考えてください。合格/不合格ラインを設定するモデルで、不合格の応募者が二度と採用担当者に評価されないしくみになっている場合は、偽陽性(合格と予測されたが実際は不合格だった応募者)を追跡し、偽陰性(門前払いされたが合格になったであろう応募者)を追跡しないことになります。混合シナリオ(順位付け + スコア)では、モデルが採用担当者の意思決定に直接影響するため、モデルが実際よりも正確に見える傾向があります。 

精度を評価する最善の方法は、採用担当者に一定数の応募者を独立してスコアリングしてもらい、それらの応募者についてモデルの精度を評価することです。

信頼できる AI 

このユースケースでは、従来のリスク分析に加えて AI Trust が必須です。 

偏りと公平: 人事の意思決定者は、人事業務での意思決定の自動化に伴うリスクを意識していなければなりません。特に、これまでの雇用慣行に関する偏りのあるデータを使ってトレーニングされたモデルでは、同じ偏りを学習して反映する可能性があります。モデルの構築時に適切な意思決定者およびコンテンツエキスパートに必ず参加してもらい、モデルの公平性を保つことがきわめて重要です。

とはいえ、ここにはチャンスも生まれます。Upturn 社(テクノロジーの正当な使用に特化したシンクタンク)は、雇用における倫理的な AI の使用についてのガイドラインを発表しました。同社はこの分野での AI の利用にはリスクとチャンスの両方があるとし、次のように述べています。「慎重さ、透明性、監視を強化すれば、(我々の現在の倫理的な)基準の向上に役立つ雇用に関する何らかの新しいテクノロジーのための舞台が整うかもしれない」

同社によれば、その鍵は説明可能性にあります。この分野の機械学習は透明性が高く、文書化され、かつ説明可能でなければなりません。DataRobot の説明可能性ツールスイートを利用すれば、データサイエンティストでない人事チームでも以下の点を理解できます。

  • モデルで重要とされている特徴量
  • 主要なセグメントや人口統計学的グループに対するモデルのパフォーマンス
  • モデルが実際の業務でどのように機能するか
  • 個々の具体的な予測に関してモデルが「なぜ」そのスコアを返したのかの説明 

これはフリーテキストフィールドでは特に重要です。モデルの学習の基盤にできる単語やフレーズを理解して積極的に管理するために不可欠だからです。重要なのは、これらのモデルは「ブラックボックス」ではないということです。むしろ、モデルは完全に透明で企業の制御下にあります。

説明可能性に加えて、モデルの評価には偏り検査が必須です。適切と考えられる偏り検査の 1 つは統計的均一性です。統計的均一性では、有利な結果を得られる確率が異なる人口統計学的グループ間で等しいかどうかを測定します。この場合は、人種、性別、民族などの保護グループにおける採用選考の合格率が他と同等かどうかのテストになるでしょう。米国の法律では一般に、人事業務に明らかに不利な影響が見られるかどうかを判断する際、5 分の 4 ルールが適用されます。あるグループの採用率が他の比較対象グループの採用率の 5 分の 4(80%)未満である場合、不利な影響の証拠であるとされます。

関連ブログ

求人の応募者のスコアリング【概要】編 / 【技術実装】編

執筆者について
DataRobot

DataRobotはバリュー・ドリブンAIのリーダーであり、組織がAIをアイデアから実際のビジネス価値へ加速させることを支援しています。AIイノベーションの最前線で10年以上の経験を持ち、組織の収益向上、ビジネスビジョンの実現、そして私たちを取り巻く世界に真の変化をもたらすために必要な知識と経験を持ちあわせています。

DataRobot についてもっとくわしく