Googleの「Tensor Processing Unit(TPU)」は 機械学習処理の救世主かCPUやGPUが「総合職」なら、TPUは「専門職」

Googleの発表した「Tensor Processing Unit(TPU)」は、機械学習モデルのトレーニングと実行向けに設計された。CPUやGPUと比較したTPUの長所と短所について解説する。

2017年08月15日 05時00分 公開
[Mary K. PrattTechTarget]

画像 機械学習の導入には、膨大な情報処理を可能にする設備が必要だ

 IT企業にとって、機械学習が不可欠のテクノロジーになりつつある今日、その情報処理量に耐えられる処理装置も必須製品になり得る。

 企業が求めるレベルに見合った製品を提供しようと、複数のハイテク企業が競争に加わっている。

 Googleは、その1社だ。同社は、「Google Cloud」で利用可能なTPU(Tensor Processing Unit)、「Cloud TPU」を市場に投入した。

 Googleによれば、現在多くの企業が機械学習の情報処理に使用しているCPUやGPUと比べて、TPUは1ワット当たりのパフォーマンスが高いという。

 TPUチップは、特定用途向け集積回路(ASIC)(注1)の1つだ。Googleは、機械学習ワークロードの処理を具体的な目標にTPUを開発した。

※注1:ASIC(Application Specific Integrated Circuit)=IC(Integrated Circuit)の1つで、ある特定の用途やユーザーに向けて設計、製造される。

 「TPUは、機械学習アルゴリズムを実行するために、ゼロから設計された数少ないチップの1つだ」と、Gartnerのリサーチ部門でバイスプレジデントを務めるマーク・ハン氏は語る。

第一世代と第二世代のTPU

 Googleは、初期の第一世代TPUと2017年5月に発表した第二世代TPUの両方を開発した理由として、「社内要件を満たすためだった」ことを挙げている。

 Googleは、2017年5月17日に掲載したブログ記事に、「第一世代TPUは、文章の翻訳や囲碁の次の一手の選択など、機械学習モデルの迅速かつ効果的な実行を目的に設計された。だが、こうしたモデルは依然として個別の学習トレーニングを必要としていた。機械学習モデルの学習トレーニングは、実行よりも難しい。利用可能な最高レベルのCPUやGPUでも、最先端の制度に到達するには、数日間から数週間の計算処理を必要とする」と記した。

 Googleの研究チームとエンジニアリングチームは、ハードウェアを通した機械学習モデルのトレーニングという困難な作業のスケーリングにおいて「大きな進歩」を遂げた。だが、同社はブログに、第一世代TPUは、「機械学習のニーズを満たすのに十分ではなかった」と記している。新たな機械学習システムについて、Googleは、機械学習モデルのトレーニングと実行の両方に第二世代TPUを採用することでボトルネックを解消し、全体のパフォーマンスを最大限に高めたと主張している。

 同社製品について詳しい話を聞くため、TechTargetはGoogleにインタビューを申し込んだが、返答を得られなかった。

 「Googleが発表したTPUの速度から考えれば、Cloud TPUで機械学習アプリケーションを開発、実行する企業の最高情報責任者(CIO)にとって、作業の生産性改善は明らかだろう」と、ハン氏は語る。

TPU対GPU、CPUの比較

ITmedia マーケティング新着記事

news068.jpg

社会人1年目と2年目の意識調査2024 「出世したいと思わない」社会人1年生は44%、2年生は53%
ソニー生命保険が毎年実施している「社会人1年目と2年目の意識調査」の2024年版の結果です。

news202.jpg

KARTEに欲しい機能をAIの支援の下で開発 プレイドが「KARTE Craft」の一般提供を開始
サーバレスでKARTEに欲しい機能を、AIの支援の下で開発できる。

news136.png

ジェンダーレス消費の実態 男性向けメイクアップ需要が伸長
男性の間で美容に関する意識が高まりを見せています。カタリナ マーケティング ジャパン...