検索
特集/連載

MicrosoftがAIの監査可能性、説明可能性を向上させるツールを提供AIを可視化して信頼性を高める

AIの公平性や信頼性向上の鍵を握り導入のハードルを下げるためには、監査可能性や説明可能性が不可欠と目されている。Microsoftはこの分野を前進させるツールを提供している。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 Microsoftはデベロッパーカンファレンス「Build 2020」で機械学習に関する責任ある開発プロセス計画の概要を説明した。この計画の目的は、その開発プロセスを再現可能、信頼可能、説明可能にすることにある。

 Microsoftの「Azure Machine Learning」はデータセットの系統を自動追跡する。ユーザーは機械学習資産の監査証跡(履歴、トレーニング、モデルの説明など)を一元型レジストリで管理できる。これにより、データサイエンティスト、機械学習エンジニア、開発者のワークフローの可視性と監査可能性が向上する。

 Microsoftは、Azure Machine Learningでカスタムタグを使って機械学習モデル用のデータシートを実装し、ユーザーがデータセットのドキュメントとメタデータを改善できるようにする方法に関する指針を同カンファレンスで示した。

 カスタムタグはMicrosoftがAI研究団体「Partnership on AI」で活動した成果とMicrosoftの「ABOUT ML」(Annotation and Benchmarking on Understanding and Transparency of Machine Learning Lifecycles)プロジェクトに基づく。このプロジェクトは機械学習システムのドキュメントの透明性と説明可能性を向上させることを目的とする。

 Microsoftが他に注力する分野は、機械学習モデルに対する理解を深めてデータの不公平性を評価、軽減するツールだ。同社は過去数カ月にわたって、モデルの不公平性を軽減して説明可能性を高めるツールに大規模な投資を行っている。この分野は機械学習の専門家にとって特に重要性が高い。

 2019年、Microsoftは機械学習モデルの公平性を評価する「Fairlearn」というオープンソースのツールキットをリリースした。Build 2020では、2020年6月にFairlearnがAzure Machine Learningにネイティブに統合されることが発表された。

 Fairlearnはモデルを評価、再トレーニングするために最大15個の「公平性指標」が提供される。ユーザーが選択した特定のグループ(年齢、性別、人種など)に対するモデルのパフォーマンスを専門家が確認できる視覚的なダッシュボードも用意されている。Microsoftは公平性の研究の進捗(しんちょく)に応じて機能の拡充を予定している。

 Microsoftはさらに「InterpretML」というツールを通じて「説明可能なAI(人工知能)」にも取り組んでいる。InterpretMLには一連のダッシュボードが用意されており、さまざまな手法でモデルの説明可能性を実現する。複数のタイプのモデルで出力を決定する最も重要な特徴の理解を深めたり「what if」分析をしたり、データの傾向を調査したりする上でInterpretMLは専門家の役に立つ。

 Microsoftは他にも、解釈可能性を可視化する一連の機能を備えた新しいユーザーインタフェース、テキストベースの分類サポート、反事実的例分析をツールセットに追加したことも発表した。

ユーザー向けの説明可能性の可視化

 これらはAIの重要分野だが、登場間もないためAIを導入したばかりの企業が実務に役立てる方法を理解するのは難しい。ユーザーにとってはなおさらだ。

 Microsoftは、特にデータサイエンティストと機械学習エンジニア向けに多くの改善を加えている。MicrosoftはInterpretMLのデモで、小売業者が説明可能性を実務で活用する方法の例としてWebサイトに組み込まれた消費者向けAI駆動型製品レコメンデーション機能のサポートを示した。透明性とユーザーからの信頼性の構築はAIにおける最大のハードルの一つだ。

 実際、企業が機械学習を導入する際の最大の障壁としてAIに対する信頼(または不信)が浮上している。2019年にCCS Insightが実施した調査では、ITに関する意思決定者の39%が機械学習を導入する上での最大のハードルが信頼だと答えている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る