検索
特集/連載

AI(人工知能)の意思決定はブラックボックス、それでも機械を信じる?われわれの向かう未来(2/2 ページ)

数ある人工知能(AI)の中でも、機械学習は特に進化の可能性が大きい。われわれは、どこまで機械を信頼できるか、試されることになる。

Share
Tweet
LINE
Hatena
前のページへ |       

機械学習のロジックは設計者にも理解できない

 問題は、そうした奇跡のような機械学習装置が実現したとして、それがどう機能するか、装置を開発したコンピュータ科学者自身にも分からないことだ。まさに、IT技術者なら大抵はおなじみのブラックボックスソフトウェア問題のようなものだ。機械がどうやって学習するのかも、どう意思を決定するのかも、何を提案するのかも分からない。そして機械の側も、私たちにそれを教えることはできない。

 「われわれはこれまで、製作者が理解できない方法で稼働する機械を開発したことはなかった。予測できない不可解なインテリジェントマシンとどうやってコミュニケーションを取り、うまく付き合っていけというのか」。作家のウィル・ナイト氏は最近、『MIT Technology Review』に寄せたブラックボックス問題に関する寄稿でそう記した。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る