大手クラウドプロバイダーは、市場シェアの争奪戦を繰り広げながら提供するクラウドインスタンスの種類を拡大してきた。その流れの1つとして、ユーザーは、GPU(グラフィックスプロセッシングユニット)にアクセス可能なインスタンスをデプロイできるようになった。これは、特にAI(人工知能)などコンピューティングリソースを集中的に使用するワークロードにメリットがある。
今、大手クラウドプロバイダーによるGPUインスタンスを巡る競争がヒートアップし始めている。Microsoftの「Microsoft Azure」は、2016年12月にNVIDIAのGPUを搭載した「Nシリーズ」の仮想マシンを公開している。Amazonも、2016年9月に「Amazon EC2 (Elastic Cloud Compute) P2」インスタンスの新しい種類を公開したが、これにもNVIDIAのGPUを組み込んでいる。Googleでは、2017年2月に「Google Compute Engine」と「Cloud Machine Learning」でNVIDIAのGPUインスタンスをサポートすると発表している。
このようなGPUインスタンスをデプロイする前に、GPUインスタンスを使用するのが最適なアプリケーションとワークロードの種類を理解することが重要だ。このようなワークロードには、次のようなものがある。
超リッチなイーロン・マスク氏の「言論の自由」は、あなたのそれと同じなのか?
Twitter買収の大義名分とされる「言論の自由」。しかし、同じことを語っているつもりでも...
新卒の営業職が仕事をやりたくない時期、最多は「5月」 ―― RevComm調査
新卒営業社員は5月に最初の「壁」を感じるようです。
「メタバース」でどうやってもうけるの? Meta(旧Facebook)が考える収益化への道
Metaの中核をなすメタバースプラットフォームのマネタイズ計画が明確になりつつある。高...