顕在化してきた「AIベースの人事管理」のリスクアルゴリズムによる人事管理【前編】

人間から偏見を排除するのは難しい。これを克服するために導入したアルゴリズムにもやはりリスクがある。既に発生しているリスクとは何か。

2022年06月20日 08時00分 公開
[SA MathiesonComputer Weekly]

 人間による管理は悲惨な結果につながることがある。「昔のタクシー業界では、運転手が虐待されていた」と話すのは、非営利団体Worker Info Exchange(WIE)のジェームズ・ファラー氏(ディレクター)だ。

 「仕事を与えられる運転手と与えられない運転手がいる。つまり、配車係に気に入られなければ仕事にありつけない」。賄賂を要求する配車係もいた。その結果、配車業務のアルゴリズム化は大いに歓迎された。

 だが、アルゴリズムによる管理とプロセスの自動化が新たな問題をもたらしている。

人間に反旗を翻すアルゴリズム

 WIEが公開したレポート「Managed by bots」によると、「ある自営業者が他人に自分のアカウントを使わせている」と顔認識ソフトウェアが誤認し、さらにそれを人間が確認するのをソフトウェアが拒否した。

 顔認識ソフトウェアは、肌の色が濃いと精度が落ちる傾向がある。ロンドン交通局に登録されている個人タクシーの運転手の94%は少数民族出身であり、これは「既に雇用が不安定な労働者にとって悲惨な結果になる」という(訳注)。

訳注:ロンドンのタクシーは「ブラックキャブ」と「ミニキャブ」に大別される。ブラックキャブの運転手の大半は白人のイギリス人で、ミニキャブの運転手は外国人が多いといわれている。本文のタクシー運転手はミニキャブあるいはUberを想定したものと思われる。

 ファラー氏は、運転手の数が過剰になるなどの問題が生じていると言う。運転手が多ければ客の待ち時間は短くなる。だが各運転手の仕事は減少して生計を立てるのが難しくなり、道路も混雑する。

 特に仕事の割り当てと業績管理にITを使う場合は透明性を確保する必要がある。セキュリティや詐欺防止を言い訳にしてはならない。また、人生を変える決定に自動化を単独で使用すべきではない。

労働組合の役割

 英国労働組合会議(TUC:Trades Union Congress)も同様の要請を行っている。TUCは48の労働組合の連合体だ。TUCのメアリー・タワーズ氏(雇用権政策担当者)は、労働組合は賃金などのデータの処理と分析において新たな役割を果たすことができると言う。「そうした集団的支援がなければ、従業員が自分のデータを管理するのは非常に難しいだろう」

 データは、分析にも同一賃金請求などの行動の基礎としても利用できる。労働組合はデータ保護法の下、組合員の正式な代表として行動できる。組合員に自主的にデータを収集するように要請することも可能だ。

 労働組合と企業の交渉には、自動化やAIに従業員のデータを使う方法も含めることができる。Royal Mail Group(RMG)とCommunication Workers Union(CWU)の労働協約(2022年更新)には、「職場や業務上の意思決定を人間以外に委ねるためにITを使用しない。ITを使用する場合は情報に基づく議論をサポートするようにITを設計し、いかなる形でもいかなる形式でもそのITを置き換えてはならない」と記されたセクションが含まれている。

 タワーズ氏によると、ITをうまく使いたいなら「協調的で社会的なパートナーシップアプローチ」を目指すべきだという。従業員は企業が行っていることを知らない場合が多いと同氏は補足する。使っているITのリストを公開してアクセスできるようにし、従業員が自分のデータに自動的にアクセスできるようにすれば状況を改善できる。

AIの透明性確保

 自動化とAIの透明性は法的な観点でも理にかなっていると話すのは、商法事務所Walker Morrisのサリー・ミューイーズ氏(ITおよびデジタル部門責任者)だ。「多くの場合、AIの意思決定の仕組みを人間が理解するのは不可能だ。その意思決定が人員配置や人事に関わる場合は大きな懸念点になる」

 これは雇用法上の問題を引き起こす恐れがある。GDPR(EU一般データ保護規則)は、特定の条件を満たさない限り、個人を完全に自動化された意思決定の対象にすることを禁止している。英国政府は2021年9月の協議でこの廃止を提案した。さらにAIにおけるバイアスの監視と検出に個人データを使うことを許可することも提案している。これらはまだ法案としては正式に提出されていない。

 自動化されたシステムのバイアスは差別禁止法に違反する可能性がある。仕事や昇進の対象となる人材の選定に自動化されたシステムを使っている場合、企業に深刻なリスクがもたらされるとミューイーズ氏は言う。体系的または潜在的に個人データに悪影響を及ぼすプロジェクトの場合、プライバシーへの影響評価を実施しなければならない。「そのような方法でアルゴリズムやAIを使っているところでは、個人に悪影響を及ぼさないことを納得しなければならない」

 必要がなくてもプライバシーへの影響評価を実施するのは優れた考え方だとミューイーズ氏は言う。「ITを展開した方法について後で批判されても、透明性と公平性を確保するために措置を講じたという証拠は残る」

ITmedia マーケティング新着記事

news148.jpg

天候と位置情報を活用 ルグランとジオロジックが新たな広告サービスを共同開発
ルグランとジオロジックが新たな「天気連動型広告」を共同開発した。ルグランが気象デー...

news130.jpg

“AI美女”を広告に起用しない ユニリーバ「Dove」はなぜそう決めたのか
Unilever傘下の美容ケアブランド「Dove」は、「Real Beauty」の20周年を機に、生成AIツー...

news099.png

有料動画サービス 34歳以下では過半数が利用経験、4割は1日1回以上利用
「ニールセン・ビデオコンテンツ アンド アド レポート 2024」を基に、テレビ画面での動...