2020年01月09日 05時00分 公開
特集/連載

結論の明確化に照準Googleが発表した「説明可能なAI」で実現すること

Googleは、ユーザーがもっと説明可能なAIモデルを開発してデプロイできるようにする新たな製品群「Explainable AI」を発表した。その中身とは

[Mark Labbe,TechTarget]

関連キーワード

Google | 機械学習


 Googleは2019年11月21日、説明可能性を高めた人工知能(AI)モデルをデプロイ(配備)できるエンタープライズ向け新たな製品群の「Explainable AI」を発表した。同社は1年以上にわたり、もっと信頼できるAIモデルを開発してデプロイするためのツールを提供する取り組みを続けている。データプライバシー侵害を巡って批判されることもある同社だが、もっとオープンで説明可能なAI技術の開発という急成長分野にも活発に取り組んでいる。

 「GoogleはAI技術を取り巻く責任とガバナンスといった重要なトピックに関連して、マクロレベルで活発に活動してきた」。コンサルティング企業Clickchart(「CCS Insight」の名称で事業展開)で副社長を務めるニック・マクワイア氏はそう解説する。主にAI技術の重要原則に関する顧客の教育を基本として、倫理、政策、戦略といったマクロ分野に重点を置いている。

 Explainable AIは、説明可能なAIモデルの導入と管理のためのツールとフレームワーク(特定の設計思想に基づくライブラリなどのソフトウェアやテンプレート、ドキュメントの集合体)で構成される。Explainable AIの要となるのは、β版サービスの「AI Explanations」だ。

AIモデルの説明可能性を高める「AI Explanations」

ITmedia マーケティング新着記事

news113.jpg

新型コロナウイルス感染拡大に関する不安 「経済への打撃」が「多くの死者が出ること」を上回る
McCann Worldgroupが世界14カ国で実施した意識調査の結果、政府の対応体制が「整っている...

news145.jpg

「70歳までの就労意識」をテーマとした調査を実施――富国生命調査
長期的に働く上でのリスクトップ3は「病気」「就業不能状態」「入院」。