Googleの「Tensor Processing Unit(TPU)」は 機械学習処理の救世主か:CPUやGPUが「総合職」なら、TPUは「専門職」
Googleの発表した「Tensor Processing Unit(TPU)」は、機械学習モデルのトレーニングと実行向けに設計された。CPUやGPUと比較したTPUの長所と短所について解説する。
IT企業にとって、機械学習が不可欠のテクノロジーになりつつある今日、その情報処理量に耐えられる処理装置も必須製品になり得る。
企業が求めるレベルに見合った製品を提供しようと、複数のハイテク企業が競争に加わっている。
Googleは、その1社だ。同社は、「Google Cloud」で利用可能なTPU(Tensor Processing Unit)、「Cloud TPU」を市場に投入した。
Googleによれば、現在多くの企業が機械学習の情報処理に使用しているCPUやGPUと比べて、TPUは1ワット当たりのパフォーマンスが高いという。
TPUチップは、特定用途向け集積回路(ASIC)(注1)の1つだ。Googleは、機械学習ワークロードの処理を具体的な目標にTPUを開発した。
※注1:ASIC(Application Specific Integrated Circuit)=IC(Integrated Circuit)の1つで、ある特定の用途やユーザーに向けて設計、製造される。
「TPUは、機械学習アルゴリズムを実行するために、ゼロから設計された数少ないチップの1つだ」と、Gartnerのリサーチ部門でバイスプレジデントを務めるマーク・ハン氏は語る。
第一世代と第二世代のTPU
Googleは、初期の第一世代TPUと2017年5月に発表した第二世代TPUの両方を開発した理由として、「社内要件を満たすためだった」ことを挙げている。
Googleは、2017年5月17日に掲載したブログ記事に、「第一世代TPUは、文章の翻訳や囲碁の次の一手の選択など、機械学習モデルの迅速かつ効果的な実行を目的に設計された。だが、こうしたモデルは依然として個別の学習トレーニングを必要としていた。機械学習モデルの学習トレーニングは、実行よりも難しい。利用可能な最高レベルのCPUやGPUでも、最先端の制度に到達するには、数日間から数週間の計算処理を必要とする」と記した。
Googleの研究チームとエンジニアリングチームは、ハードウェアを通した機械学習モデルのトレーニングという困難な作業のスケーリングにおいて「大きな進歩」を遂げた。だが、同社はブログに、第一世代TPUは、「機械学習のニーズを満たすのに十分ではなかった」と記している。新たな機械学習システムについて、Googleは、機械学習モデルのトレーニングと実行の両方に第二世代TPUを採用することでボトルネックを解消し、全体のパフォーマンスを最大限に高めたと主張している。
同社製品について詳しい話を聞くため、TechTargetはGoogleにインタビューを申し込んだが、返答を得られなかった。
「Googleが発表したTPUの速度から考えれば、Cloud TPUで機械学習アプリケーションを開発、実行する企業の最高情報責任者(CIO)にとって、作業の生産性改善は明らかだろう」と、ハン氏は語る。
併せて読みたいお薦め記事
クラウドで提供される企業向け機械学習サービスは多い
一方で、クラウド経由の機械学習には懸念も
機械学習に多く使われるGPUは、多用途に浸透
TPU対GPU、CPUの比較
Copyright © ITmedia, Inc. All Rights Reserved.