「TPU」とはどんなプロセッサなのか? AIインフラの基礎知識:AI時代のプロセッサ再入門【第3回】
プロセッサの技術はAI技術の台頭とともに様変わりしている。使われているのはCPUやGPUだけではない。AI関連のタスクに使用するプロセッサの一つである「TPU」について紹介する。
機械学習などのAI(人工知能)技術の利用においては、CPU(中央処理装置)だけではなくAI関連のタスクのために使用するプロセッサについて知っておくことが欠かせない。そうしたプロセッサにGPU(グラフィックス処理装置)があるが、それだけではない。「TPU」(Tensor Processing Unit:テンソル処理ユニット)もその一つだ。TPUはAI関連のタスクでどのように使われるのか。
「TPU」とは何か? どのように機能するのか
併せて読みたいお薦め記事
AI時代のプロセッサ再入門
プロセッサ関連のその他の動向
TPUは、機械学習などのAIアプリケーションで必要になる、大量の演算処理を並列処理することを目的としたプロセッサだ。TPUは「ASIC」(Application Specific Integrated Circuit)の一種だと言える。ASICとは、特定のタスクを実行するために設計、製造された集積回路を意味する。多様なタイプのASICがさまざまなデバイスで使用されている。例えば、家庭用目覚まし時計、コーヒーメーカー、ストレージシステムの専用コントローラーなどがある。
GoogleはTPUを2016年に発表した。同社が、オープンソースの機械学習用フレームワークおよびライブラリ(プログラム部品群)「TensorFlow」と組み合わせて使用することを目的に開発したものだ。TPUは「PyTorch」や「JAX」など他の機械学習フレームワークでも利用できるようになっている。
TPUは大量の演算用コア「Matrix Multiply Unit」(行列乗算ユニット)を搭載している。特に処理速度と電力効率に優れており、結果として費用対効果が高くなるという。TPUは以下のようなAIタスクに適している。
- 大規模で複雑な機械学習モデルのトレーニング、チューニング、推論
- 大規模言語モデル(LLM)など、行列の演算を必要とする大規模で複雑な深層学習モデルのトレーニング
- 深層学習とニューラルネットワークを使用して人間の脳の振る舞いを模倣しようとするプロジェクト
- 音声合成、レコメンデーションエンジン、コンピュータビジョン(画像情報を通じて対象の内容を認識し理解するAI技術)、医療診察・診断、遺伝子研究、製薬など
AI関連のタスクを実行する点でTPUはGPUに似ている。TPUはGPUよりもAIタスクにさらに特化していると言える。
Googleは主にクラウドサービス群「Google Cloud」を通じて、「Cloud TPU」としてTPUを提供している。TPUはGoogle CloudでAIアプリケーションを開発したい場合に利用するものだ。
次回はNPU(ニューラルプロセッシングユニット)について解説する。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.