検索
特集/連載

Googleが発表した「説明可能なAI」で実現すること結論の明確化に照準

Googleは、ユーザーがもっと説明可能なAIモデルを開発してデプロイできるようにする新たな製品群「Explainable AI」を発表した。その中身とは

Share
Tweet
LINE
Hatena

関連キーワード

Google | 機械学習


 Googleは2019年11月21日、説明可能性を高めた人工知能(AI)モデルをデプロイ(配備)できるエンタープライズ向け新たな製品群の「Explainable AI」を発表した。同社は1年以上にわたり、もっと信頼できるAIモデルを開発してデプロイするためのツールを提供する取り組みを続けている。データプライバシー侵害を巡って批判されることもある同社だが、もっとオープンで説明可能なAI技術の開発という急成長分野にも活発に取り組んでいる。

 「GoogleはAI技術を取り巻く責任とガバナンスといった重要なトピックに関連して、マクロレベルで活発に活動してきた」。コンサルティング企業Clickchart(「CCS Insight」の名称で事業展開)で副社長を務めるニック・マクワイア氏はそう解説する。主にAI技術の重要原則に関する顧客の教育を基本として、倫理、政策、戦略といったマクロ分野に重点を置いている。

 Explainable AIは、説明可能なAIモデルの導入と管理のためのツールとフレームワーク(特定の設計思想に基づくライブラリなどのソフトウェアやテンプレート、ドキュメントの集合体)で構成される。Explainable AIの要となるのは、β版サービスの「AI Explanations」だ。

AIモデルの説明可能性を高める「AI Explanations」

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る