サーバ仮想化は、1台のサーバを抽象化し、複数の仮想マシン(VM)にリソースを分割して実行する仕組みを指す。VMは、サーバの台数や識別情報、プロセッサ、OSなどの属性を気にすることなく利用できる。(続きはページの末尾にあります)
仮想マシン(VM)のパッチ適用に当たっては、さまざまな注意点がある。パッチ適用によってシステム稼働に影響が出ないようにするには、どうすればいいのか。アドバイスをまとめた。
オンプレミスのVMware製品からAWSへのVMの移行は、複雑な作業を必要とせずに実施できる場合がある。VMのAWS移行にはどのようなメリットがあるのか。考慮すべきデメリットとは。
採用面接は仮想化エンジニアの求職者にとって、仮想化の全般的な知識と実力をアピールするチャンスだ。採用面接で頻出する初歩的な質問と、回答時のポイントを説明する。
本番環境におけるサーバの高可用性(HA)を確実にしたい場合、混乱を招くリスクを冒してでもサーバの高可用性をテストした方が良いのか、それともシステムの信頼性を信じた方が良いのだろうか。
Linux物理マシンをXenServerにP2V(Physical to Virtual)するプロセスについて解説する。
XenServerのHA機能は、ダウンタイムを最小化するためにプール内の仮想マシンやホストの障害を監視する。HA機能のサービス復旧時に制御すべきポイント(再起動優先順位)とその設定方法を解説する。
最適な仮想環境を設計していれば、優先度の高いアプリケーションは単一のプラットフォーム上にあるだろう。これがどのような形で災害復旧の助けになるのか。
米国の電子情報開示要求では、必要なデータを迅速に探し出すことが法的に義務付けられている。電子情報開示対策ツール購入のチェックポイントを紹介する。
仮想マシンを管理するには、やはりスタッフが必要だ。このため、サーバ管理に必要なスキルは変わってくるが、実際の作業量が減るとは限らない。
質問:わたしの会社では、VM(仮想マシン)の命名、配置、管理全般が非常に混乱しています。VMwareを使っている場合、VMの文書化はどのように行えばよいのでしょうか。VMとその状態、配置を特定するための良いツールや、標準的な手法、方策があったら紹介してください。
仮想化導入を担当する専門技術者に必要なスキルは、従来のエンジニアに求められるものとは異なる。企業の経営陣と人事部門は、募集する人材の要件を見直し、幅広い技術的熟練の真価を理解する必要がある。
従来は1台のサーバで、1つのアプリケーションを実行するのが一般的だった。そのためアプリケーションによってはサーバのプロセッサコアやメモリ容量などのハードウェアリソースを十分に利用せず、無駄が生じることがあった。リソースの使用率に関係なく、サーバの台数が増えると、維持管理に掛かるコストや必要なスペース、電力消費量が増加することになる。
サーバのリソース使用率を高めるために登場したのが、サーバ仮想化だ。サーバ仮想化ソフトウェアは、アプリケーションとサーバの中間層に、ハイパーバイザーというソフトウェアを追加する。
ハイパーバイザーは、アプリケーションインフラとしてのサーバを抽象化し、複数のVMに分割する。各VMは、独立した個別のサーバとして機能する。サーバ仮想化によって、サーバの利用可能なリソースを全て活用して、複数のアプリケーションを同時に実行できるようになる。その結果、サーバの台数を減らしたり、データセンター設備の維持コストを節約したりできる。
当然ながら、ハイパーバイザーにはライセンスコストが掛かるだけではなく、運用管理が必要になる。こうした負担が、サーバ仮想化のメリットを相殺する可能性がある点に注意が必要だ。
ハイパーバイザーには、Microsoftの「Hyper-V」やVMwareの「ESXi」などがある。ハイパーバイザーは、サーバのプロセッサやメモリ、ストレージなどのリソースを認識し、これらのリソースを呼び出すためのエイリアス(別名)を作成する。例えばCPUはエイリアスの作成によって、複数の仮想CPU(vCPU)と呼ばれるリソースに分割される。ハイパーバイザーはVMの管理を担い、仮想リソースにひも付いたリソースとアプリケーション間のデータのやりとりを担う。
VMに対してハイパーバイザーは、プロセッサコアやメモリ容量、ストレージ容量といった管理下のリソースを割り当てる。VMは、インフラとなるハードウェアや、ハイパーバイザーが作成した他のVMから完全に分離される。つまりVMは、ハイパーバイザーを実行するサーバや、同じリソースを共有する他のVMの影響を受けない。
クラウドやコンテナの誇大宣伝により、サーバ仮想化は終わったと思われているかもしれない。サーバ仮想化市場は成熟し切っていると思われるかもしれない。しかし サーバ仮想化市場は、新たな採用パターンに対応してパブリッククラウドプロバイダーやオープンソースプロジェクトから新しいイノベーションを受け入れている。
クラウド、コンテナ、インフラモダナイズの中で新たに実装されるアプローチを利用してサーバ仮想化も視野を広げ、新鮮な視点で検討しなければならない。サーバ仮想化において注目すべき7つのトレンドを紹介する。
コンテナを早期導入した企業にとって、コンテナ管理機能の有無が重要だった。ただし、コンテナとVMのコンバージェンスが増えるにつれて、既存の運用ツールやプロセスに影響が及ぶ可能性がある。
コンテナ管理への投資は、機能の重複やプロセスのサイロ化というリスクをもたらす。一方、コンテナとVMのコンバージェンスは可視性の向上、API主導の自動化、インフラ管理の標準化といったメリットがある。
ハイパーバイザーをベースとするサーバ仮想化では、機能拡張やインフラ要件のサポート能力が繰り返し実証されてきた。従来型仮想化プロバイダーも新興仮想化プロバイダーも、コンテナとの競争とイノベーションに対応するためにクラウドから着想を得た仮想化インフラを提供している。その例が「VMware vSphere 7」や「Red Hat OpenShift Virtualization」などだ。
コンバージド仮想化インフラは、ハイブリッドインフラソフトウェア、マルチクラウド、分散クラウド、エッジコンピューティング全体の一貫性を高める可能性を秘めている。
パブリッククラウドのIaaSがクラウドホスト型のサーバ仮想化を新たな規模に広げている。クラウドホスト型サーバ仮想化はハイパースケールのIaaSで運用される従来型のデプロイシナリオとは相反するアプローチであり、ハイパーバイザーがクラウドインフラサービスの統合セットの一部としてバンドルされる。
クラウドホスト型サーバ仮想化によって、ハイパースケールのIaaSプロバイダーにまたがって「ユーザー独自のハイパーバイザーを持ち込む/選ぶ」ことが可能になる。「VMware Cloud」や「Nutanix Cloud Platform」などがその例だ。
クラウドホスト型はホスト変更やリファクタリングの可能性がある特定セットのシナリオに適している。事業継続性/高可用性やデータセンター統合など、既存ワークロードの柔軟性とスケーラビリティを向上させるための選択肢を提供する。クラウド移行への入り口としての役割も果たすだろう。
HCI(ハイパーコンバージドインフラ)ソフトウェアはスケールアウトインフラの一形式で、インフラとIT運用の簡素化と標準化を目的に設計される。ハイパーバイザーを組み込み、ソフトウェアベースのストレージ仮想化を段階的に追加して、ネットワーク仮想化を組み込める「ビルディングブロック」方式のアプローチが提供される。ソフトウェアベースであることを前提とすると、HCIソフトウェアによってオンプレミスとオフプレミスにまたがる一貫性のあるハイブリッドソリューションが可能になる。
クラウドホスト型HCIソフトウェアは、クラウドに着想を得たサーバ仮想化と重なり合う部分がある。この傾向はHCIサプライヤーによるコンテナ管理への投資と並行して起きている。どちらも、MicrosoftやIBMなどの新しいソリューションとともに分散クラウドを導入する別のルートを生み出している。
仮想化用のハードウェア支援にはさまざまな形式がある。最近はハイパースケールIaaSプロバイダー用のカスタムハードウェアを通じて進化している。
ハードウェア支援の仮想化によって、既存および新興のさまざまなサーバワークロードをサポートする共有コンピューティングリソースのプールが提供される。AI向けのパフォーマンス向上はニーズが高い。例としては、「AWS Nitro System」をはじめIntel、NVIDIA、Pensandoなどが提供している。
ハードウェアサプライヤーは、クラウド移行に対応するためにサブスクリプションライセンスや使用量ベースの形式でクラウドに似たサービスを導入している。クラウドホスト型も使用量ベースも、将来のインフラ費用を設備投資から運用支出に切り替える能力を向上させる。例として「HPE GreenLake」や「Dell APEX」などがある。