AI技術の利用で使われるプロセッサには、GPU以外にもTPUやNPUなどがある。TPUとNPUはAI技術に特化した点では似ているが、両者の役割は異なる。その違いを踏まえて、NPUと推論とは何かを考える。
機械学習などのAI(人工知能)技術の利用において使われるプロセッサは、CPU(中央処理装置)やGPU(グラフィックス処理装置)だけではない。NPU(ニューラル処理装置)と呼ばれるプロセッサも使われるようになっている。NPUは、AI技術の利用に特化しているという点ではTPU(テンソル処理装置)と共通する特徴があるが、両者は同じではない。NPUは、TPUとは何が違うのか。
NPUは、AIモデルのトレーニング目的ではなく、推論の処理を高速化するために設計された「ASIC」(Application Specific Integrated Circuit)だ。Googleが提供するTPUはトレーニングや推論を目的としており似た役割を持つが、両者は同じではない。TPUはGoogleがオープンソースの機械学習用フレームワークおよびライブラリ(プログラム部品群)と組み合わせて使う目的で開発した。
簡単に言えば、推論とは証拠と論理的思考から導き出された結論を意味する。脳は、「シナプスの重み付け」と呼ばれる現象を通じて学習し、より効果的な意思決定ができるようになっていく。脳内のニューロン間で情報が伝達されると、それらのニューロン間の連絡がより円滑に、より速くなることがある。
例えば、車を運転して自宅に向かっているとする。周囲の道路、標識、建物を認識し、現在地と向かうべき方向について効果的な判断を下して自宅にたどり着く。既に自分がどこにいるかを「知っている」なら、GPS(全地球測位システム)は不要だ。周囲の情報を頼りにして目的にたどり着くための最適な判断を下すのが推論だ。
AIモデルも頻繁に遭遇するデータに優先順位を付けて学習する。その結果、より少ないエネルギーで、より迅速に、より良い結果を得ることができるようになる。つまり、AIモデルは複数の異なった決定と、それぞれを採用した場合の結果を予測する。それと同時に、過去の経験から学習した情報と、映像、音声、位置データといったリアルタイムに取得する情報に対して重み付けをし、評価する。その結果、最良の決定を下すことができる。NPUはこの過程をたどるよう最適化されており、高速でニューラルネットワークに関連した演算を処理できる。
GPUとTPUが通常、処理の際に主要な役割を担うのに対し、NPUは多くの場合、汎用(はんよう)CPUに内蔵された特化型コアとして、もしくはエッジデバイスやモバイルデバイスのサポート用プロセッサとして実装される。例えば、NPUを搭載した最新のスマートフォンでは、デバイスを使う際やデータにアクセスする際の顔認証などの生体認証や、リアルタイムの音声認識や翻訳といった自然言語処理(NLP)をNPUが担う。
次回はGPU、TPU、NPUの用途の違いを考える。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...
SEOを強化するサイトの9割超が表示速度を重視 で、対策にいくら投資している?
Reproが「Webサイトの表示速度改善についての実態調査 2024」レポートを公開。表示速度改...