AI技術には性別や人種のバイアスに基づいた判断をしてしまうリスクがある。バイアスを軽減し、公平かつ正確な判断をするAIシステムを構築する方法を考える。
Amazon.comは人工知能(AI)エンジン搭載の人材採用システムの開発を2017年に中止した。中止の理由は、採用の判断に女性就業希望者に対するバイアス(偏見)が含まれていたことだった。原因はAIシステムの機械学習に使っていたデータにあった。性別や人種へのバイアスが含まれた学習データ(教師データとも)を利用すると、AIシステムがそのバイアスに基づいた判断をするリスクがある。
偏ったデータはときに役立つこともある。意図的にAIシステムの判断をゆがめる学習データを利用することで、かえってAIシステムの判断の正確性を高められる場合があるからだ。
一般的にAIエンジンはブラックボックスになっている。バイアスの有無とその原因を判断することは困難だ。AIシステムのバイアスを解消しつつ、正確な判断ができるように学習させるにはどのようにすればよいのだろうか。本資料では、AIシステムのバイアスを取り巻く現状とバイアスを軽減する方法について、事例を交えて説明する。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
新富裕層の攻略法 「インカムリッチ」の財布のひもを緩めるマーケティングとは?
パワーカップルの出現などでこれまでとは異なる富裕層が生まれつつあります。今回の無料e...
ブラックフライデーのオンラインショッピング 日本で売り上げが大幅に増加した製品カテゴリーは?
Criteoは、日本国内のブラックフライデーのオンラインショッピングに関する分析結果を発...
Omnicomが Interpublic Groupを買収 世界最大級の広告会社が誕生へ
OmnicomがInterpublic Group(IPG)を買収する。これにより、世界最大の広告会社が誕生し...