Googleは「TensorFlow」のパフォーマンスを向上させるため、Cloud TPUというマイクロプロセッサを提供している。クラウド機械学習市場で有力な立場を築いているかのように見えるGoogle Cloud Platformだが、TPUには課題も見られる。
クラウドで機械学習のワークロードが増加を続けている。これをサポートするため、Googleは同社の「Compute Engine」プラットフォームの一環として、特殊な用途向けのマイクロプロセッサを展開している。同社は大手クラウドプロバイダーの一員として、人工知能(AI)技術を用いたアプリケーションを自社インフラでサポートする能力を競っている。このマイクロプロセッサは、その取り組みの最新例の1つだ。
「市場と技術という両方の要因の相乗効果として、Googleのようなベンダーは、パフォーマンスの高いクラウドサービスを新たに開発せざるを得なくなっている」と話すのは、Moor Insights & Strategyのハイパフォーマンスコンピューティングとディープラーニング部門のコンサルティングリードを務めるカール・フロイント氏だ。
Googleは、オープンソースの「TensorFlow」フレームワークを用いる機械学習アプリケーションのパフォーマンスを向上させるため、「Cloud Tensor Processing Unit」(Cloud TPU)というチップを設計した。Cloud TPUが全ての企業のニーズを満たすことはないとしても、機械学習モデルのトレーニングや導入には、CPUやGPU以上に数多くのメリットをもたらす。
ピザハットが新展開 まさかのTikTok動画活用法とは?
Pizza HutがUAEを中心に「トレンド払い」キャンペーンを展開している。TikTokのトレンド...
「レシピチェック」「少額決済」はデジタルが多数派に 逆にアナログでないとだめな活動とは?
博報堂生活総合研究所は、直近1年間における暮らし全般のデジタル化の度合いを調べる「生...
ホワイトペーパー制作が続かない! 苦しまず量産するため、どうすればいい?
前編ではB2B企業にとって本来あるべきホワイトペーパーの役割と成果を出すための3つの使...