検索
特集/連載

Googleの機械学習用プロセッサ「Cloud TPU」の長所と短所Amazon Web ServicesやMicrosoftに差をつけられるか

Googleは「TensorFlow」のパフォーマンスを向上させるため、Cloud TPUというマイクロプロセッサを提供している。クラウド機械学習市場で有力な立場を築いているかのように見えるGoogle Cloud Platformだが、TPUには課題も見られる。

Share
Tweet
LINE
Hatena
画像

 クラウドで機械学習のワークロードが増加を続けている。これをサポートするため、Googleは同社の「Compute Engine」プラットフォームの一環として、特殊な用途向けのマイクロプロセッサを展開している。同社は大手クラウドプロバイダーの一員として、人工知能(AI)技術を用いたアプリケーションを自社インフラでサポートする能力を競っている。このマイクロプロセッサは、その取り組みの最新例の1つだ。

 「市場と技術という両方の要因の相乗効果として、Googleのようなベンダーは、パフォーマンスの高いクラウドサービスを新たに開発せざるを得なくなっている」と話すのは、Moor Insights & Strategyのハイパフォーマンスコンピューティングとディープラーニング部門のコンサルティングリードを務めるカール・フロイント氏だ。

 Googleは、オープンソースの「TensorFlow」フレームワークを用いる機械学習アプリケーションのパフォーマンスを向上させるため、「Cloud Tensor Processing Unit」(Cloud TPU)というチップを設計した。Cloud TPUが全ての企業のニーズを満たすことはないとしても、機械学習モデルのトレーニングや導入には、CPUやGPU以上に数多くのメリットをもたらす。

設計上の変化

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る