特集/連載
「説明可能なAI」の実現に向けて企業ができること:追加すべき機能は何か
説明可能なAIシステムを求める声が高まるにつれ、IBMやDarwinAIをはじめとするベンダーは、ビジネスユーザーがAIシステムの仕組みを理解するのに役立つ新機能を導入している。
深層学習をはじめとする機械学習システムが進化し、複雑な意思決定プロセスを支援できるようになっている。一方でシステムの精度が向上するにつれ、システムを理解するのが難しくなるという問題が生まれている。
併せて読みたいお薦め記事
「AI」の意思決定は信じられるか
「AI」の信頼性を巡る議論
優れたシステムは企業の役に立つが、同時に悩みの種にもなりかねない。高度なAI(人工知能)システムは現実に利用できる洞察を提供できる。だが、その洞察を得るに至った過程を詳しく説明することは難しい。こうした状況から、ビジネス部門のリーダーはAIシステムが提示する推奨事項に難色を示すことがある。
洞察は利益創出の役に立つ可能性があるが、システムの仕組みを理解していなければ、企業を間違った方向に導きかねない。とはいえ企業経営陣がシステムの仕組みを理解するのは困難だ。場合によっては不可能なこともある。
企業は説明可能なAIシステムを求めている。こうした状況を受けて、AIシステムベンダー各社は製品を使いやすく理解しやすいものに変えるために取り組んでいる。
ここ数年、H2O.ai、IBM、DarwinAIなど一部のベンダーは、説明を可能にする機能を自社製品に搭載するか、拡張機能として提供するようになっている。
説明可能なAIが現実に
Copyright © ITmedia, Inc. All Rights Reserved.