検索
特集/連載

ニューロモーフィックコンピューティングが今期待されているワケノイマン型コンピュータの限界

量子コンピューティングとともに、ニューロモーフィックコンピューティングの実用化が急がれている。両者の使い道の違いは何か。ニューロモーフィックコンピューティングが必要な理由とは何か。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 人を死に至らしめる決定を自律的に行うキラーロボットという考えは、映画『ターミネーター』(1984年公開、監督:ジェームズ・キャメロン)を特徴付けている。

 人類にとって幸いなことに、自律型キラーロボットはまだ存在しない。技術が大きく進化しているにもかかわらず、真の自律型ロボットはSFの域を出ていない。

 2020年が終わり、自動運転車構想をけん引してきた興奮は陰りを見せ始めた。Uber Technologiesは2020年末に自動運転部門を売却した。自動運転車に関する規制の枠組みは明確とは言い難く、技術的にも大きな問題点を抱えている。

 自動車やロボットであろうと産業プロセスを制御するスマートセンサーであろうと、ネットワークのエッジで動作する機械はリアルタイムの意思決定にバックエンドコンピュータを利用することはできない。数ミリ秒の遅れがニアミスと大事故の違いにつながる。

 専門家は、エッジコンピューティングによるリアルタイムの意思決定の必要性はおおむね受け入れている。だが、その意思決定が「はい」または「いいえ」の単純な二者択一の答えから、インテリジェントな意思決定のように見せ掛ける答えへと高度化するにつれ、現状の技術では不適切だと考える専門家は多い。

 その理由は、実社会を適切にモデル化できないだけでなく、機械学習へのアプローチが極めて不安定で、自然界におけるインテリジェンスの適応性が不足しているためでもある。

 オンラインイベント「Intel Labs Day」(2020年12月開催)でIntelのマイク・デイビス氏(ニューロモーフィックコンピューティングラボのディレクター)は、コンピューティングに対するこれまでのアプローチを見直す必要があると感じているとし、次のように語った。「脳は比類のないコンピュータだ」

 デイビス氏が取り上げたのは最新の自律型レーシングドローンだ。このドローンはオンボードプロセッサを搭載し、あらかじめプログラミングされたルートを人が歩く速さで飛行できる。このドローンは約18ワットの電力を消費する。「これをオカメインコと比べてみる。この鳥の脳は小さく、消費電力は約50ミリワットだ」(デイビス氏)

 オカメインコの脳の重さはわずか2.2グラム。ドローンに必要な処理機能の部分の重さは40グラムもある。「オカメインコはこの小さな脳を使って時速約35キロで飛行し、餌をあさり、他のオカメインコとコミュニケーションする。その上、人間の言葉の簡単な語彙(ごい)を習得できる。量的に言えば、あらゆる面で自然はコンピュータを3:1で上回る」と同氏は話す。

 脳を上回るという試みは常にコンピュータの目標だった。デイビス氏とIntelのニューロモーフィックコンピューティングラボのチームは、AIの途方もない作業はある意味ポイントを外していると考える。「今日のコンピュータアーキテクチャはこの種の問題に最適化されていない。自然界の脳は数百万年かけて最適化されている」と同氏は述べる。

 デイビス氏によると、ディープラーニングはインテリジェントなエッジデバイスの世界を変える貴重な技術だが、限界があるツールだという。「問題の種類によっては極めて適切に解決できるが、ディープラーニングが捕捉できるのは脳の働きのほんの少しにすぎない」

 レーシングドローンが飛行中にくぐり抜けるゲートをディープラーニングで認識することは可能だ。だがその認識方法を習得することは自然ではない。「CPUはバッチモードでデータを処理するために高度に最適化されている」と同氏は話す。

 「ディープラーニングで意思決定を下すには、CPUはストレージやメモリから読み取ったデータをベクトル化した集合として処理し、サンプルとパターンを照合する必要がある。データをバッチ用に編成し、均一に分散させることも必要だ。これはリアルタイムに処理しなければならない生物がデータを解釈する方法ではない」(デイビス氏)

 脳は、バッチモードではなくサンプリングしながらデータを処理する。だが、適合も必要になる。それには記憶が関係する。「脳にはその適合フィードバックループに影響を及ぼす過去の履歴に関するカタログがある」とデイビス氏は話す。

エッジでの意思決定

 Intelはトランジスタレベルからコンピュータアーキテクチャを見直し、CPUとメモリの区別を不鮮明にする方法を模索している。脳の神経(ニューロン)の役割を反映し、数百万のシンプルなユニット間でデータを非同期に処理する機械を用意することが同社の目標だ。

 2017年、Intelは「Loihi」を開発した。14ナノメートルプロセス技術で製造された、特殊アーキテクチャに基づく128コアから成る。Loihiチップは13万のニューロンを含み、各ニューロンが他の数千のニューロンとコミュニケーションを取ることができる。Intelによると、128の各コアに組み込まれた学習エンジンを使ってオンチップのリソースにアクセスし、操作することができるという。

 ニューロモーフィックコンピューティングの応用分野について尋ねられたデイビス氏は、量子コンピュータと同様の問題を解決できると答えた。だが、量子コンピュータは最終的にはクラウドの一部として見られる技術であることは恐らく変わらない。これに対し、Intelはエッジデバイスのコプロセッサを目指している。スケジュール的には5年以内にリリースされることをデイビス氏は期待している。

 実例については、Intelのラボとコーネル大学の研究者らが、哺乳類が脳に嗅覚を伝える嗅球の構造を基に、屋外の有害化学物質を学習・認識するためにLoihiを使う方法を実証した。

 デイビス氏をはじめとするニューロモーフィックコンピューティングの研究者にとって最大の障壁は、ハードウェアではなく70年にも及ぶプログラミング方法を変え、並列ニューロコンピュータの効率の高いプログラミング方法を開発者に理解させることだ。

 「開発者とコミュニティーに注目している。相互に作用する数千ものニューロンがあるときに、プログラミングが何を意味するかを考え直すのは難しい」(デイビス氏)

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る