「AIベースの人事管理」のリスクを回避する方法:アルゴリズムによる人事管理【後編】
AIからバイアスを排除するのは難しい。だがリスクを回避する方法はある。そのためのベストプラクティスを紹介する。
従業員管理におけるバイアスを減らす方法は他にもある。データサイエンスコンサルタント企業Peak Indicatorsのアントニー・ヘルジュラ氏(イノベーションディレクター)によると、人種などのセンシティブな属性をデータモデルから除外することは可能だが、確実ではないという。数年前、Amazon.comは10年分の応募書類でトレーニングされたAI履歴書評価システムにおいて、女性に対する差別があったと発表した。
この例が示すように、人間だけでなく自動化された決定も偏る恐れがある。そのため、センシティブな属性を意図的に使ってバイアスを探すモデルを別に構築することは理にかなっている。ヘルジュラ氏は、これを「異常検知」と呼んでいる。
AIシステムにおけるバイアスへの対策
他にも選択肢がある。
- AIの使用を検証する倫理委員会を設置する
- ニューラルネットワークよりも決定木のような比較的説明可能なモデルを選択する
- 従業員管理は、個人ではなくグループを集計したデータを用いる
最後の選択肢については、グループを十分な大きさにする必要がある。チームに女性が1人しかいなければ、女性が離職する可能性があるという予測はかなり個人的なものになる。
バイアスと監視に対する懸念から、人事にAIを使う方法を見直さざるを得ないとヘルジュラ氏は考えている。ITを利用して決定のバイアスを確認したり、個人に合わせたトレーニング計画を策定したりする目的で従業員のスキルを評価するなど、「『支配者による監視』から従業員が受け入れ可能な監視に切り替えなければならない」。
ITコンサルタント企業Infosysは、AIにおけるバイアスに取り組むための5ステップのアプローチを考案した。このアプローチでは、まずデータ内でセンシティブな属性を探す。次に、特定の役割における女性率の目標など、「公平な尺度」を設定する。その後、AIベースのシステムを実装する。仕事の割り当てを拒否するためにデータを使う場合は、その結果を説明できるようにする。最後に、結果に対する人間のガバナンスを構築する。Infosysのデービッド・セマッハ氏(ヨーロッパにおけるAIと自動化の責任者)は、人間の介入について次のように話す。「これは本質的にはサニティーチェック(ごく基本的な動作確認)であり、絶対に不可欠だ」
Infosysはある大手企業グループにこのバイアス対策機能を実装中だという。このグループはアルゴリズムを使って数万件の履歴書を審査している。同社は公平な尺度を30〜40件設定している。セマッハ氏は、この数は妥当だが「最大の課題の一つは対策の定義だ」と言う。
データ分析ソフトウェアプロバイダーのNICEはRPA(ロボティックプロセスオートメーション)ユーザー用の「Robo-Ethical Framework」を公開した。ロボットはポジティブな影響を与え、グループIDを無視して個人に危害を加えるリスクを最小限に抑えなければならない。ロボットのデータソースは既知の信頼できる検証済みのものでなければならない。アクセスと編集を制限、監視、認証するなど、ロボットはガバナンスと制御を念頭に置いて設計しなければならないと同フレームワークは定義している。
NICEのオデッド・カレフ氏(RPA担当統括マネジャー)は、倫理学者やパートナーの意見を聞いて同フレームワークを計画したと言う。同フレームワークには、顧客の従業員から寄せられた「自動化への不安」や不正を図るスタッフにソフトウェアロボットが悪用されることを恐れる米国大手銀行からの要請など、従業員管理の問題が大きな影響を及ぼしている。
多くの企業は倫理的な使用を実証することに意欲的だ。カレフ氏によると、ロボットを作成するステップに多くの担当者が関与することで、詐欺のリスクを減らせるという。複数の人が関われば単独犯では実行できず、複数人による共謀が必要になる。
履歴書の審査にロボットを使うグローバルIT企業は「ルールを自動的に作成して適用することはできないという保護策を追加している」とカレフ氏は話す。全ての変更がドキュメントに記録され、元に戻すことができる。
Copyright © ITmedia, Inc. All Rights Reserved.