検索
特集/連載

Googleの「Tensor Processing Unit(TPU)」は 機械学習処理の救世主かCPUやGPUが「総合職」なら、TPUは「専門職」

Googleの発表した「Tensor Processing Unit(TPU)」は、機械学習モデルのトレーニングと実行向けに設計された。CPUやGPUと比較したTPUの長所と短所について解説する。

Share
Tweet
LINE
Hatena

画像
機械学習の導入には、膨大な情報処理を可能にする設備が必要だ

 IT企業にとって、機械学習が不可欠のテクノロジーになりつつある今日、その情報処理量に耐えられる処理装置も必須製品になり得る。

 企業が求めるレベルに見合った製品を提供しようと、複数のハイテク企業が競争に加わっている。

 Googleは、その1社だ。同社は、「Google Cloud」で利用可能なTPU(Tensor Processing Unit)、「Cloud TPU」を市場に投入した。

 Googleによれば、現在多くの企業が機械学習の情報処理に使用しているCPUやGPUと比べて、TPUは1ワット当たりのパフォーマンスが高いという。

 TPUチップは、特定用途向け集積回路(ASIC)(注1)の1つだ。Googleは、機械学習ワークロードの処理を具体的な目標にTPUを開発した。

※注1:ASIC(Application Specific Integrated Circuit)=IC(Integrated Circuit)の1つで、ある特定の用途やユーザーに向けて設計、製造される。

 「TPUは、機械学習アルゴリズムを実行するために、ゼロから設計された数少ないチップの1つだ」と、Gartnerのリサーチ部門でバイスプレジデントを務めるマーク・ハン氏は語る。

第一世代と第二世代のTPU

 Googleは、初期の第一世代TPUと2017年5月に発表した第二世代TPUの両方を開発した理由として、「社内要件を満たすためだった」ことを挙げている。

 Googleは、2017年5月17日に掲載したブログ記事に、「第一世代TPUは、文章の翻訳や囲碁の次の一手の選択など、機械学習モデルの迅速かつ効果的な実行を目的に設計された。だが、こうしたモデルは依然として個別の学習トレーニングを必要としていた。機械学習モデルの学習トレーニングは、実行よりも難しい。利用可能な最高レベルのCPUやGPUでも、最先端の制度に到達するには、数日間から数週間の計算処理を必要とする」と記した。

 Googleの研究チームとエンジニアリングチームは、ハードウェアを通した機械学習モデルのトレーニングという困難な作業のスケーリングにおいて「大きな進歩」を遂げた。だが、同社はブログに、第一世代TPUは、「機械学習のニーズを満たすのに十分ではなかった」と記している。新たな機械学習システムについて、Googleは、機械学習モデルのトレーニングと実行の両方に第二世代TPUを採用することでボトルネックを解消し、全体のパフォーマンスを最大限に高めたと主張している。

 同社製品について詳しい話を聞くため、TechTargetはGoogleにインタビューを申し込んだが、返答を得られなかった。

 「Googleが発表したTPUの速度から考えれば、Cloud TPUで機械学習アプリケーションを開発、実行する企業の最高情報責任者(CIO)にとって、作業の生産性改善は明らかだろう」と、ハン氏は語る。

TPU対GPU、CPUの比較

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る