検索
特集/連載

主要クラウドが提供する「GPUインスタンス」、本気を引き出す高負荷アプリとは?AWS、Azure、Googleなどがサポート

AWS、Azure、Googleなどのパブリッククラウドは、高性能なコンピューティングリソースを集中的に提供する「GPUインスタンス」を用意している。そのメリットを享受できるアプリとは?

Share
Tweet
LINE
Hatena
GPUは内部に実装した演算ユニットを並列に動かすことで膨大な数の演算処理を実行できる

 大手クラウドプロバイダーは、市場シェアの争奪戦を繰り広げながら提供するクラウドインスタンスの種類を拡大してきた。その流れの1つとして、ユーザーは、GPU(グラフィックスプロセッシングユニット)にアクセス可能なインスタンスをデプロイできるようになった。これは、特にAI(人工知能)などコンピューティングリソースを集中的に使用するワークロードにメリットがある。

 今、大手クラウドプロバイダーによるGPUインスタンスを巡る競争がヒートアップし始めている。Microsoftの「Microsoft Azure」は、2016年12月にNVIDIAのGPUを搭載した「Nシリーズ」の仮想マシンを公開している。Amazonも、2016年9月に「Amazon EC2 (Elastic Cloud Compute) P2」インスタンスの新しい種類を公開したが、これにもNVIDIAのGPUを組み込んでいる。Googleでは、2017年2月に「Google Compute Engine」と「Cloud Machine Learning」でNVIDIAのGPUインスタンスをサポートすると発表している。

 このようなGPUインスタンスをデプロイする前に、GPUインスタンスを使用するのが最適なアプリケーションとワークロードの種類を理解することが重要だ。このようなワークロードには、次のようなものがある。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る