サーバ仮想化は、1台のサーバを抽象化し、複数の仮想マシン(VM)にリソースを分割して実行する仕組みを指す。VMは、サーバの台数や識別情報、プロセッサ、OSなどの属性を気にすることなく利用できる。(続きはページの末尾にあります)
「GPU」の貴重なコンピューティングリソースをできるだけ無駄なく使うには、その使用状況を適切に把握することが欠かせない。仮想マシンでGPUを使う場合のパフォーマンス測定方法とは。
仮想マシンでGPU(グラフィックス処理ユニット)のリソースを使う場合は、当然ながらそのための下準備が必要になる。GPUのリソースを使う2つの方法を基に、その準備の流れについて説明しよう。
GPUは、大量の計算処理やグラフィックスの処理を得意とする。これを仮想マシンに割り当てて使用する方法には主に2通りある。GPUのリソースを共有する方法を中心に紹介しよう。
企業のインフラでは、従来使われてきたCPUに加えて「GPU」の役割が重要になりつつある。同じくインフラにおいて重要な仮想マシン(VM)でGPUを使う理由とは。具体的な方法と併せて解説する。
「VMware vSphere」のバージョン6.5と6.7のテクニカルガイダンスが2023年11月に終了する。一見安定稼働しているように見えても、サポート切れのvSphereを使い続けることにはリスクが伴う。そのリスクとは何か。
VMwareは「RDM」「シックプロビジョニング」「シンプロビジョニング」という3つの仮想ディスク作成方法を用意する。それぞれ、どのような特徴があるのか。3種の違いを明らかにする。
仮想マシン(VM)とコンテナは、システムの構築と運用に広く用いられている。VMの長所と短所を解説しながら、それぞれの得意な分野、不得意な分野を明らかにする。
サーバ仮想化は、ハードウェアの運用管理に掛かるコストや手間を削減するといった幾つものメリットがある一方、実はデメリットもある。それは何なのか。解決方法とは。
「Kubernetes」のインフラを選択する際は、コンテナの用途や規模を考慮する必要がある。Kubernetesインフラの主要な選択肢であるVMとベアメタルサーバを、複数の観点で比較する。
VMwareのハイパーバイザー「ESXi」のサポート切れバージョンは、どのくらいの数が稼働し続けているのか。調査から明らかになった驚きの事実とは。
主要CPUベンダーのIntelとAMD、IBM。各社のCPUのうち、仮想マシン(VM)の利用に適した製品はどれなのか。各社の主要製品を説明する。
「Kubernetes」のインフラにVMを利用することで、コンテナのインフラ管理を簡略化できる可能性がある。VMを利用してKubernetesを運用するときのメリットと課題を整理する。
CPUを適切に利用しないと、仮想マシン(VM)の処理速度が低下する場合がある。VMの快適な動作を実現するための、CPU活用のポイントを説明する。
「Kubernetes」のインフラに適しているのは、VMとベアメタルサーバのどちらなのか。オーバーヘッドやリソース管理など、両者の基本的な違いを整理する。
2大プロセッサベンダーIntelとAMDのCPUは、仮想マシンの処理を高速化させる仮想化支援機能やセキュリティ対策機能を備えている。これらはどのような機能なのか。
システムの中核要素である「CPU」の特徴は製品ごとに異なる。CPUを選択する際のポイントと、仮想マシンの利用時に重要となる「CPU仮想化」の仕組みを概説する。
テレワークを推進する企業のIT管理者が、「ROBO」で動くVMをリモートで管理できるようにするには、どうすればよいのか。役立つ製品分野を紹介する。
VMwareは仮想ディスクの作成方法として「RDM」と「シックプロビジョニング」「シンプロビジョニング」を用意している。その中からRDMの仕組みを説明する。
安全に仮想マシン(VM)を運用するためには、適切なセキュリティ対策が不可欠だ。VMのセキュリティ対策で見落としがちなポイントを説明する。
準仮想化を実現する際に必要なのがハイパーバイザーとゲストOSだ。準仮想化ハイパーバイザーの機能と、ゲストOSとして利用できるOSを取り上げる。
従来は1台のサーバで、1つのアプリケーションを実行するのが一般的だった。そのためアプリケーションによってはサーバのプロセッサコアやメモリ容量などのハードウェアリソースを十分に利用せず、無駄が生じることがあった。リソースの使用率に関係なく、サーバの台数が増えると、維持管理に掛かるコストや必要なスペース、電力消費量が増加することになる。
サーバのリソース使用率を高めるために登場したのが、サーバ仮想化だ。サーバ仮想化ソフトウェアは、アプリケーションとサーバの中間層に、ハイパーバイザーというソフトウェアを追加する。
ハイパーバイザーは、アプリケーションインフラとしてのサーバを抽象化し、複数のVMに分割する。各VMは、独立した個別のサーバとして機能する。サーバ仮想化によって、サーバの利用可能なリソースを全て活用して、複数のアプリケーションを同時に実行できるようになる。その結果、サーバの台数を減らしたり、データセンター設備の維持コストを節約したりできる。
当然ながら、ハイパーバイザーにはライセンスコストが掛かるだけではなく、運用管理が必要になる。こうした負担が、サーバ仮想化のメリットを相殺する可能性がある点に注意が必要だ。
ハイパーバイザーには、Microsoftの「Hyper-V」やVMwareの「ESXi」などがある。ハイパーバイザーは、サーバのプロセッサやメモリ、ストレージなどのリソースを認識し、これらのリソースを呼び出すためのエイリアス(別名)を作成する。例えばCPUはエイリアスの作成によって、複数の仮想CPU(vCPU)と呼ばれるリソースに分割される。ハイパーバイザーはVMの管理を担い、仮想リソースにひも付いたリソースとアプリケーション間のデータのやりとりを担う。
VMに対してハイパーバイザーは、プロセッサコアやメモリ容量、ストレージ容量といった管理下のリソースを割り当てる。VMは、インフラとなるハードウェアや、ハイパーバイザーが作成した他のVMから完全に分離される。つまりVMは、ハイパーバイザーを実行するサーバや、同じリソースを共有する他のVMの影響を受けない。
クラウドやコンテナの誇大宣伝により、サーバ仮想化は終わったと思われているかもしれない。サーバ仮想化市場は成熟し切っていると思われるかもしれない。しかし サーバ仮想化市場は、新たな採用パターンに対応してパブリッククラウドプロバイダーやオープンソースプロジェクトから新しいイノベーションを受け入れている。
クラウド、コンテナ、インフラモダナイズの中で新たに実装されるアプローチを利用してサーバ仮想化も視野を広げ、新鮮な視点で検討しなければならない。サーバ仮想化において注目すべき7つのトレンドを紹介する。
コンテナを早期導入した企業にとって、コンテナ管理機能の有無が重要だった。ただし、コンテナとVMのコンバージェンスが増えるにつれて、既存の運用ツールやプロセスに影響が及ぶ可能性がある。
コンテナ管理への投資は、機能の重複やプロセスのサイロ化というリスクをもたらす。一方、コンテナとVMのコンバージェンスは可視性の向上、API主導の自動化、インフラ管理の標準化といったメリットがある。
ハイパーバイザーをベースとするサーバ仮想化では、機能拡張やインフラ要件のサポート能力が繰り返し実証されてきた。従来型仮想化プロバイダーも新興仮想化プロバイダーも、コンテナとの競争とイノベーションに対応するためにクラウドから着想を得た仮想化インフラを提供している。その例が「VMware vSphere 7」や「Red Hat OpenShift Virtualization」などだ。
コンバージド仮想化インフラは、ハイブリッドインフラソフトウェア、マルチクラウド、分散クラウド、エッジコンピューティング全体の一貫性を高める可能性を秘めている。
パブリッククラウドのIaaSがクラウドホスト型のサーバ仮想化を新たな規模に広げている。クラウドホスト型サーバ仮想化はハイパースケールのIaaSで運用される従来型のデプロイシナリオとは相反するアプローチであり、ハイパーバイザーがクラウドインフラサービスの統合セットの一部としてバンドルされる。
クラウドホスト型サーバ仮想化によって、ハイパースケールのIaaSプロバイダーにまたがって「ユーザー独自のハイパーバイザーを持ち込む/選ぶ」ことが可能になる。「VMware Cloud」や「Nutanix Cloud Platform」などがその例だ。
クラウドホスト型はホスト変更やリファクタリングの可能性がある特定セットのシナリオに適している。事業継続性/高可用性やデータセンター統合など、既存ワークロードの柔軟性とスケーラビリティを向上させるための選択肢を提供する。クラウド移行への入り口としての役割も果たすだろう。
HCI(ハイパーコンバージドインフラ)ソフトウェアはスケールアウトインフラの一形式で、インフラとIT運用の簡素化と標準化を目的に設計される。ハイパーバイザーを組み込み、ソフトウェアベースのストレージ仮想化を段階的に追加して、ネットワーク仮想化を組み込める「ビルディングブロック」方式のアプローチが提供される。ソフトウェアベースであることを前提とすると、HCIソフトウェアによってオンプレミスとオフプレミスにまたがる一貫性のあるハイブリッドソリューションが可能になる。
クラウドホスト型HCIソフトウェアは、クラウドに着想を得たサーバ仮想化と重なり合う部分がある。この傾向はHCIサプライヤーによるコンテナ管理への投資と並行して起きている。どちらも、MicrosoftやIBMなどの新しいソリューションとともに分散クラウドを導入する別のルートを生み出している。
仮想化用のハードウェア支援にはさまざまな形式がある。最近はハイパースケールIaaSプロバイダー用のカスタムハードウェアを通じて進化している。
ハードウェア支援の仮想化によって、既存および新興のさまざまなサーバワークロードをサポートする共有コンピューティングリソースのプールが提供される。AI向けのパフォーマンス向上はニーズが高い。例としては、「AWS Nitro System」をはじめIntel、NVIDIA、Pensandoなどが提供している。
ハードウェアサプライヤーは、クラウド移行に対応するためにサブスクリプションライセンスや使用量ベースの形式でクラウドに似たサービスを導入している。クラウドホスト型も使用量ベースも、将来のインフラ費用を設備投資から運用支出に切り替える能力を向上させる。例として「HPE GreenLake」や「Dell APEX」などがある。