複数VMで共有する「仮想GPU」とは? パススルーとの違いは?:パススルーと仮想GPU【第2回】
GPUは、大量の計算処理やグラフィックスの処理を得意とする。これを仮想マシンに割り当てて使用する方法には主に2通りある。GPUのリソースを共有する方法を中心に紹介しよう。
仮想マシン(VM)で「GPU」(グラフィックス処理装置)のコンピューティングリソースを利用可能にすることで、CPU(中央処理装置)だけでは担い切れない大量の計算処理やグラフィックス処理が可能になる。例えばデータの解析や仮想デスクトップの画像処理などをより効率的に実行することができる。そうしたGPUのメリットを享受する方法として「仮想GPU」(vGPU)と「パススルー」がある。
「vGPU」でGPUのリソースを共有
併せて読みたいお薦め記事
パススルーと仮想GPU
「GPU」と「VM」の話題をより広く
- NVIDIAとAMD、“人気GPU”の違いとは? 何を見て選ぶべき?
- Azureの仮想マシンサービス「Azure VM」の料金はこうして決まる
- Intel、NVIDIA、AMDの「GPU仮想化」技術を比較 それぞれの特徴とは
vGPUでは、複数のVMがGPUのリソースを共有するできるようにするために「タイムシェアリング」の仕組みが使われる。例えば、1つのGPUを仮想化して10個のvGPUに分割し、各vGPUが10個のVMに1つずつ割り当てることとする。この場合、各VMはGPUの10%分の時間を割り当てられることになる。各VMのグラフィックドライバがvGPUに接続する。
グラフィックボード(ビデオカード)に搭載されているビデオメモリは、基本的には共有することができず、vGPUを使用するVMごとに分割されることになる。例えばビデオメモリが32GBあり、それがVM10個のvGPU向けに分割される場合、各vGPUは3.2GBのビデオメモリを利用できる。
タイムシェアリングによって共有するGPUと、共有利用ができないビデオメモリを組み合わせて使用するので、GPUを共有して利用できるVMの数には限界がある。GPUを共有するVMの数が増え、VMがGPUに要求する画像処理のレベルが上がれば上がるほど、vGPUのパフォーマンスは低下する。
運用管理者は、vGPUのリソースを変更することによってパフォーマンスを調整できる。VM用のスライス(割り当てられる時間)を増減することで、負荷の高いVMにはより多くの時間を割り当て、負荷の低いVMにはより少ない時間が割り当てるように調整することができる。
vGPUでは、日常的な軽い画像処理を扱うことがよくある。例えば仮想デスクトップにおけるデスクトップ周りの画像処理だ。こうすることで、複数の仮想デスクトップが限られた数のGPUを共有して利用できるようになる。
パススルーの場合、VMはGPU全体のリソースの利用と制御ができる。より具体的に言えば、コア(演算処理を担う個々の部品)を搭載するチップの単位で、GPUのリソースをVMに割り当てる。
次回は、GPUのリソースをVMに割り当てる具体的な手順を紹介する。
TechTarget発 世界のインサイト&ベストプラクティス
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.