2017年08月15日 05時00分 UPDATE
特集/連載

CPUやGPUが「総合職」なら、TPUは「専門職」Googleの「Tensor Processing Unit(TPU)」は 機械学習処理の救世主か

Googleの発表した「Tensor Processing Unit(TPU)」は、機械学習モデルのトレーニングと実行向けに設計された。CPUやGPUと比較したTPUの長所と短所について解説する。

[Mary K. Pratt,TechTarget]

画像 機械学習の導入には、膨大な情報処理を可能にする設備が必要だ

 IT企業にとって、機械学習が不可欠のテクノロジーになりつつある今日、その情報処理量に耐えられる処理装置も必須製品になり得る。

 企業が求めるレベルに見合った製品を提供しようと、複数のハイテク企業が競争に加わっている。

 Googleは、その1社だ。同社は、「Google Cloud」で利用可能なTPU(Tensor Processing Unit)、「Cloud TPU」を市場に投入した。

 Googleによれば、現在多くの企業が機械学習の情報処理に使用しているCPUやGPUと比べて、TPUは1ワット当たりのパフォーマンスが高いという。

 TPUチップは、特定用途向け集積回路(ASIC)(注1)の1つだ。Googleは、機械学習ワークロードの処理を具体的な目標にTPUを開発した。

※注1:ASIC(Application Specific Integrated Circuit)=IC(Integrated Circuit)の1つで、ある特定の用途やユーザーに向けて設計、製造される。

 「TPUは、機械学習アルゴリズムを実行するために、ゼロから設計された数少ないチップの1つだ」と、Gartnerのリサーチ部門でバイスプレジデントを務めるマーク・ハン氏は語る。

第一世代と第二世代のTPU

 Googleは、初期の第一世代TPUと2017年5月に発表した第二世代TPUの両方を開発した理由として、「社内要件を満たすためだった」ことを挙げている。

 Googleは、2017年5月17日に掲載したブログ記事に、「第一世代TPUは、文章の翻訳や囲碁の次の一手の選択など、機械学習モデルの迅速かつ効果的な実行を目的に設計された。だが、こうしたモデルは依然として個別の学習トレーニングを必要としていた。機械学習モデルの学習トレーニングは、実行よりも難しい。利用可能な最高レベルのCPUやGPUでも、最先端の制度に到達するには、数日間から数週間の計算処理を必要とする」と記した。

 Googleの研究チームとエンジニアリングチームは、ハードウェアを通した機械学習モデルのトレーニングという困難な作業のスケーリングにおいて「大きな進歩」を遂げた。だが、同社はブログに、第一世代TPUは、「機械学習のニーズを満たすのに十分ではなかった」と記している。新たな機械学習システムについて、Googleは、機械学習モデルのトレーニングと実行の両方に第二世代TPUを採用することでボトルネックを解消し、全体のパフォーマンスを最大限に高めたと主張している。

 同社製品について詳しい話を聞くため、TechTargetはGoogleにインタビューを申し込んだが、返答を得られなかった。

 「Googleが発表したTPUの速度から考えれば、Cloud TPUで機械学習アプリケーションを開発、実行する企業の最高情報責任者(CIO)にとって、作業の生産性改善は明らかだろう」と、ハン氏は語る。

TPU対GPU、CPUの比較

この記事を読んだ人にお薦めのホワイトペーパー

この記事を読んだ人にお薦めの関連記事

Loading

注目テーマ

ITmedia マーケティング新着記事

news108.jpg

「LINE LIVE」にインストリーム広告、配信者に収益を還元
LINEは「LINE LIVE」上の運用型広告「LIVE Video Ads」の提供を開始した。

news098.jpg

「Best Global Brands 2017」が発表、NetflixとSalesforce.comが初のランクイン
インターブランドジャパンは世界のブランド価値評価ランキング「Best Global Brands 2016...

news078.jpg

オールアバウト、ネイティブアドネットワーク「All Aboutプライムアド」を開始
オールアバウトは、総合情報サイト「All About」において、独自の基準で選定したライフス...