AI技術の利用で使われるプロセッサには、GPU以外にもTPUやNPUなどがある。TPUとNPUはAI技術に特化した点では似ているが、両者の役割は異なる。その違いを踏まえて、NPUと推論とは何かを考える。
機械学習などのAI(人工知能)技術の利用において使われるプロセッサは、CPU(中央処理装置)やGPU(グラフィックス処理装置)だけではない。NPU(ニューラル処理装置)と呼ばれるプロセッサも使われるようになっている。NPUは、AI技術の利用に特化しているという点ではTPU(テンソル処理装置)と共通する特徴があるが、両者は同じではない。NPUは、TPUとは何が違うのか。
NPUは、AIモデルのトレーニング目的ではなく、推論の処理を高速化するために設計された「ASIC」(Application Specific Integrated Circuit)だ。Googleが提供するTPUはトレーニングや推論を目的としており似た役割を持つが、両者は同じではない。TPUはGoogleがオープンソースの機械学習用フレームワークおよびライブラリ(プログラム部品群)と組み合わせて使う目的で開発した。
簡単に言えば、推論とは証拠と論理的思考から導き出された結論を意味する。脳は、「シナプスの重み付け」と呼ばれる現象を通じて学習し、より効果的な意思決定ができるようになっていく。脳内のニューロン間で情報が伝達されると、それらのニューロン間の連絡がより円滑に、より速くなることがある。
例えば、車を運転して自宅に向かっているとする。周囲の道路、標識、建物を認識し、現在地と向かうべき方向について効果的な判断を下して自宅にたどり着く。既に自分がどこにいるかを「知っている」なら、GPS(全地球測位システム)は不要だ。周囲の情報を頼りにして目的にたどり着くための最適な判断を下すのが推論だ。
AIモデルも頻繁に遭遇するデータに優先順位を付けて学習する。その結果、より少ないエネルギーで、より迅速に、より良い結果を得ることができるようになる。つまり、AIモデルは複数の異なった決定と、それぞれを採用した場合の結果を予測する。それと同時に、過去の経験から学習した情報と、映像、音声、位置データといったリアルタイムに取得する情報に対して重み付けをし、評価する。その結果、最良の決定を下すことができる。NPUはこの過程をたどるよう最適化されており、高速でニューラルネットワークに関連した演算を処理できる。
GPUとTPUが通常、処理の際に主要な役割を担うのに対し、NPUは多くの場合、汎用(はんよう)CPUに内蔵された特化型コアとして、もしくはエッジデバイスやモバイルデバイスのサポート用プロセッサとして実装される。例えば、NPUを搭載した最新のスマートフォンでは、デバイスを使う際やデータにアクセスする際の顔認証などの生体認証や、リアルタイムの音声認識や翻訳といった自然言語処理(NLP)をNPUが担う。
次回はGPU、TPU、NPUの用途の違いを考える。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
売上高100億円以上の企業に調査 生成AIの「マーケティング」への活用意向は?
ウイングアーク1stは、売上高100億以上の企業に勤務する部長などのマネジメント層535...
Instagramでバカ正直に「広告」を明示するとリーチが下がる? 責任者の回答は……
Instagramの責任者であるアダム・モッセーリ氏は、自身のアカウントでの情報発信シリーズ...
Xは? TikTokは? Metaは? トランプ氏勝利で笑うソーシャル、泣くソーシャル
4年ぶり2度目のトランプ政権が実現することで、主要ソーシャルメディア各社はどのような...