Googleは「TensorFlow」のパフォーマンスを向上させるため、Cloud TPUというマイクロプロセッサを提供している。クラウド機械学習市場で有力な立場を築いているかのように見えるGoogle Cloud Platformだが、TPUには課題も見られる。
クラウドで機械学習のワークロードが増加を続けている。これをサポートするため、Googleは同社の「Compute Engine」プラットフォームの一環として、特殊な用途向けのマイクロプロセッサを展開している。同社は大手クラウドプロバイダーの一員として、人工知能(AI)技術を用いたアプリケーションを自社インフラでサポートする能力を競っている。このマイクロプロセッサは、その取り組みの最新例の1つだ。
「市場と技術という両方の要因の相乗効果として、Googleのようなベンダーは、パフォーマンスの高いクラウドサービスを新たに開発せざるを得なくなっている」と話すのは、Moor Insights & Strategyのハイパフォーマンスコンピューティングとディープラーニング部門のコンサルティングリードを務めるカール・フロイント氏だ。
Googleは、オープンソースの「TensorFlow」フレームワークを用いる機械学習アプリケーションのパフォーマンスを向上させるため、「Cloud Tensor Processing Unit」(Cloud TPU)というチップを設計した。Cloud TPUが全ての企業のニーズを満たすことはないとしても、機械学習モデルのトレーニングや導入には、CPUやGPU以上に数多くのメリットをもたらす。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
2025年のマーケターが「生成AIでテレビCMを作る」よりも優先すべきことは?
AIが生成した広告に対する反発が続いた1年を経て、マーケターはパフォーマンス重視で非難...
CMOはなぜ短命? なぜ軽視される? いま向き合うべき3つの厳しい現実
プロダクト分析ツールを提供するAmplitudeのCMOが、2025年のマーケティングリーダーに課...
トラフィック1300%増、生成AIがEコマースを変える
アドビは、2024年のホリデーシーズンのオンラインショッピングデータを公開した。