2020年03月30日 08時00分 公開
特集/連載

企業に求められる「説明可能なAI(Explainable AI)」なぜそうなるかを説明しなさい

AIの普及に伴い、AIの説明可能性のニーズも高まっている。企業はどうすれば、技術的課題と倫理的課題を解決できるのか。

[Lindsay Clark,Computer Weekly]
iStock.com/monsitj

 「なぜそうなるかを説明しなさい」。数学を学ぶ学生はいつの世代もそう言われて育ってきた。適切な答えを出すだけでは不十分。学生が最高点を獲得するには、そこへどう至ったかを説明する必要がある。今、機械に対して同じことが求められている。

 消費者が次にどの映画を見たいかといった判断だけでなく、雇用や金融、あるいは司法に影響する判断に人工知能(AI)が使われるようになる中で、その理由についての説明を求める声が強まる。

 AIとロボット工学を専門とするシェフィールド大学のノエル・シャーキー教授はThe Guardianの取材に対し、機械学習に基づく判断は「偏見に汚染され過ぎていて」信頼できない可能性があると指摘した。

 その上でシャーキー教授は、医薬品の実用化が承認されるような形で安全性が証明されるまで、人生を変えさせるような判断に機械学習を応用することはやめるよう提言した。

 この脅威に目覚めたIT業界に、次の大きな出費の波が押し寄せている。

 シャーキー氏と言い方は異なるものの、機械学習ツール企業H2O.aiのデータサイエンス製品担当上級ディレクターのパトリック・ホール氏は、説明できない判断は消費者に強い「不快感」を覚えさせると語る。

 「人の好奇心を満たすためには、説明可能なAI(Explainable AI)を作り出す必要があると企業が認識し始めている。われわれは、このクールで新しく、非常にパワフルな技術をビジネスに普及させようと試み、『コンピュータに否定された』というこの不快な感覚を防ごうとしている」とホール氏は言う。

 4400人の消費者を対象に実施されたCapgeminiの面接調査では、倫理とAIに対する見方が企業の評判と業績の両方を脅かすという結果が出た。41%はAIの介入が倫理問題につながった場合は苦情を言うと回答し、36%は説明を要求すると回答。34%はその会社との付き合いをやめると回答した。

 この調査結果は、機械学習倫理と説明可能性が別の問題でありながら、つながっていることを示すとホール氏は言う。

 「データと機械学習モデルの偏見をテストする方法は差別的効果分析と呼ばれる比較的よく知られたプロセスであり、技術的には説明可能なAIとは異なる。確かに両立は可能だが、私は説明可能なAIを第一線の公平性テストツールとしては決して利用しない」(ホール氏)

 機械学習の判断に関する組織の説明を支援する目的でH2O.aiが開発したツールは、独自のAIモデルが出した結果と、他のプロセスを通じて構築されたモデルが出した結果の両方について説明するためのダッシュボードを企業に提供する(以下コラム参照)。




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news052.png

ゲーム業界がコロナ禍でTwitterを活用したコミュニケーションに注力した理由
コロナ禍において「巣ごもり消費」が拡大し追い風が吹いているといわれるゲーム業界だが...

news139.jpg

コロナ禍の観光に見える20の兆しとは? TBWA HAKUHODOなどが「観光復興ガイド」を公開
SNS上の旅行に対する価値観の激しい変化を分析し、そこから見えた20の新たな兆しとその後...

news161.jpg

コロナ禍で縮小したマーケティング施策 1位は「オフラインのセミナー/展示会」――ベーシック調査
B2Bマーケターを対象にした調査で8割以上が「コロナ禍で実施/検討しているマーケティン...