Googleは「TensorFlow」のパフォーマンスを向上させるため、Cloud TPUというマイクロプロセッサを提供している。クラウド機械学習市場で有力な立場を築いているかのように見えるGoogle Cloud Platformだが、TPUには課題も見られる。
クラウドで機械学習のワークロードが増加を続けている。これをサポートするため、Googleは同社の「Compute Engine」プラットフォームの一環として、特殊な用途向けのマイクロプロセッサを展開している。同社は大手クラウドプロバイダーの一員として、人工知能(AI)技術を用いたアプリケーションを自社インフラでサポートする能力を競っている。このマイクロプロセッサは、その取り組みの最新例の1つだ。
「市場と技術という両方の要因の相乗効果として、Googleのようなベンダーは、パフォーマンスの高いクラウドサービスを新たに開発せざるを得なくなっている」と話すのは、Moor Insights & Strategyのハイパフォーマンスコンピューティングとディープラーニング部門のコンサルティングリードを務めるカール・フロイント氏だ。
Googleは、オープンソースの「TensorFlow」フレームワークを用いる機械学習アプリケーションのパフォーマンスを向上させるため、「Cloud Tensor Processing Unit」(Cloud TPU)というチップを設計した。Cloud TPUが全ての企業のニーズを満たすことはないとしても、機械学習モデルのトレーニングや導入には、CPUやGPU以上に数多くのメリットをもたらす。
2度あることは3度あった GoogleのサードパーティーCookie廃止再延期にアドテク各社がコメント
Googleは2024年末までに完了する予定だったWebブラウザ「Chrome」でのサードパーティーCo...
天候と位置情報を活用 ルグランとジオロジックが新たな広告サービスを共同開発
ルグランとジオロジックが新たな「天気連動型広告」を共同開発した。ルグランが気象デー...
“AI美女”を広告に起用しない ユニリーバ「Dove」はなぜそう決めたのか
Unilever傘下の美容ケアブランド「Dove」は、「Real Beauty」の20周年を機に、生成AIツー...