特集/連載
採用担当者が認識すべき「AIのバイアス」という問題:人材採用におけるAI活用
人材採用にAI技術を活用すれば、人が持つ意識的なバイアス(偏り)や無意識的なバイアスを排除できると考える人は少なくない。だがAI技術で全てが解決できるわけではない。
人材採用の分野で人工知能(AI)技術の活用が広がり始めている。ただしAI技術にはバイアス(偏り)が入り込む可能性がある。人材採用担当者やHR(人事)部門の意識的なバイアスや無意識的なバイアスは採用判断に影響するが、それがAIシステムにも当てはまることはあまり認識されていない。
併せて読みたいお薦め記事
「公平・公正なAI」は可能か
- Amazon、Facebookも批判の的に 「公平・公正なAI」はなぜ難しいのか
- “偏り”がプラスに作用することも 「AI」のバイアスとどう向き合うか
- 人工知能(AI)の不公平な判断を指摘するツール IBMが提供開始
「AI」の学習用データに関する課題
Wharton School of the University of Pennsylvania(ペンシルベニア大学ウォートン校)の経営学教授で同校人材センター所長のピーター・キャペリ氏によると、アルゴリズムによる人事判断が、職場の判断として受け入れられる考え方に沿わないことはよくある。ただし標準的に"正しくない"結果をアルゴリズムが導き出すとしたら「そこにはバイアスがあり、アルゴリズムの基になったデータに原因がある」(キャペリ氏)。
ビッグデータとデータサイエンスのトレーニングプログラムを提供するElephant Scaleの共同創業者、マーク・カーズナー氏によると、AI技術のアルゴリズムにはプログラマーの考えや従業員構成に存在するバイアスが反映される。「従業員構成を与えるだけだとプログラムにバイアスが入り込みやすい」とカーズナー氏は説明する。
採用担当者はAI技術を活用するシステムについて最低限の基礎知識を持ち、アルゴリズムに与えるデータについて理解しておく必要がある。
バイアスを排除したAIを構築するには
Copyright © ITmedia, Inc. All Rights Reserved.