ハイパーコンバージドインフラ(HCI)が注目を集めるが、いざ導入する際には、何をどんな基準で選ぶべきか。まずは弱点を知り、その克服方法と選択肢を理解しておこう。
シンプルに導入、運用でき、スケーラビリティを備えたハイパーコンバージドインフラストラクチャ(HCI)が登場して久しい。広くHCIのメリットが知られるようになり、さまざまな製品が市場に出回るようになった。選択肢が増えることは歓迎すべきだが、HCIのメリットが強調される一方で、これから導入する企業にとっては、特性や比較のポイント、HCIで想定すべき「弱点」がどこにあるのかが見えにくい状況がある。
一般にHCIは、ITインフラのリソース運用をソフトウェア定義にしたことで、俊敏なインフラを構築できる点が魅力だが、HCIの弱点は、まさにこの特徴的な実装に起因する。先行導入企業からは、「思ったほどの効果が出ない」といった声が上がる中、HCIの弱点に着目し、それに対処する技術を実装した製品が登場している。
本稿では、現在注目を集めるHCIについて、見えてきた弱点を整理し、その解決策を探っていく。
万能に見えるハイパーコンバージドインフラストラクチャ(HCI)にも弱点は存在する。代表的なものは2つある。まず、HCI製品の選定において特に盲点になりやすいバックアップだ。従来のSANでは、RAIDによるデータ保護とボリュームごとのスナップショットがバックアップ運用の基本だった。これに対し、HCIでは多くの場合、RAIDによるデータ保護という概念はなく、仮想マシン単位でバックアップを行う仕組みだ。
仮想マシン単位でのバックアップは、設計自体は楽だがバックアップ時間が課題となる。仮想マシンイメージの容量は、数十〜数百GBが一般的で、中には数TBに達するケースもある。これらを単純コピーでバックアップすれば膨大な時間がかかる。そのためHCIでは、重複排除や圧縮を使って、そもそものデータ量を削減するのだが、実装の仕方によっては期待した効果が得られないケースもある。日本ヒューレット・パッカード(HPE)のエバンジェリスト、小川大地氏はこう話す。
「一般的なHCIの重複排除や圧縮の効果は30%程度。加えてデータ処理ではCPUに負荷が掛かるため、プライマリストレージでの利用を推奨しているものは少ないのが現実です。また、バックアップを行う際もデータが大きいままコピーするため効率が悪く、時間もかかります」(小川氏)
もう1つのHCIの弱点は、特定条件下でパフォーマンス劣化が起きやすいことだ。例えば、バックアップ処理でCPU負荷が掛かれば、同一筐体内で稼働する仮想マシンのパフォーマンスが落ちるケースがある。これは従来ストレージが担っていた処理をサーバCPUで行うことの弊害だ。
「この問題は特にVDI環境で発生しやすく、仮想マシンの集約率や安定性にも影響します。VDIはストレージ負荷が高いため、サーバCPUをより多く消費します。安定して動作する仮想マシンの台数が予測できず、集約度を高めにくくなるのです」と小川氏は指摘する。
こうしたHCIの弱点を克服する技術を備えた製品として、HPEが国内展開を開始したのが「HPE SimpliVity(以下、SimpliVity)」だ。
「HCIにおける重複排除と圧縮の常識を覆す3つのテクノロジーを採用しています。1つ目はハードウェアアクセラレーター。ストレージ処理によるCPU負荷を徹底的に削減します。2つ目は、大容量DRAMによるインメモリI/O処理。SSDの100倍高速なDIMMを活用して処理を高速化します。3つ目は、無駄な書き込みをしない重複排除と圧縮のためのシステムアーキテクチャです。これにメタデータを活用してインテリジェントなデータの移動やコピーを行います」(小川氏)
ハードウェアアクセラレーターは、FPGAで実装されたストレージ処理専用ボードで、重複排除や圧縮・ゼロ検出などを通常256〜8192KB単位で計算するところを、最大1000倍(8KB)の超高精度で実施する。処理が高速なため、応答性能が求められるシステム領域でも利用でき、データ削減効果も平均して60〜70%に達する。
DRAMによるインメモリI/O処理は、重複排除やデータ圧縮のリアルタイム処理を実現するものだ。一般的なHCIでは、一度ディスクに書き込んだ上で処理を行うが、SimpliVityはストレージCPUとメモリを使ってインラインで処理する。無駄な書き込みが発生せずサーバ側のCPUとメモリを利用しないため、他のアプリケーションに影響を与えずに高速な処理が可能だ。
アーキテクチャは、前述のハードウェアアクセラレターカードとインメモリテクノロジーを使って、書き込みを徹底して排除する仕掛けだ。ディスク上に重複データがあれば、メタデータのみを更新し、無駄な書き込みは行わない。この実装のおかげで、「重複排除を利用した方が処理性能の向上を期待できるほど」(小川氏)だという。
こうした独自のテクノロジーによって、HCIの弱点はどのように解決されるのか。小川氏は、まず、バックアップについてこう話す。
「重複排除と圧縮による容量削減効果は、バックアップ領域も加味すれば、平均して30分の1から40分の1に達します。バックアップを含めない、仮想マシンの実データだけでも40TBの利用量ならば15TB程度しか消費しません。さらにインライン重複排除を使えば、1TBの仮想マシンを60秒でバックアップしたり、500GBの仮想マシンを一瞬でインドから米国に送ったりといったことも可能です」(小川氏)
この仕掛けが可能なのはSimpliVity独自のファイルシステム技術と重複排除の実装があるからに他ならない。
SimpliVityのバックアップはメタデータで実施される。メタデータは、仮想マシンを構成する全ブロック(チャンク)を掌握するのでフルバックアップとなるが、手続きはメタデータの更新であるため、非常に小さなデータ量、短時間で実施できる上、世代数にも制限はない。リストアも、同様にメタデータの展開なので一瞬で完了する。これをNFSに公開すれば、ユーザー側からは通常のディスク同様に認識でき、ファイル単位でリストアすることもできる。
メタデータは階層化されており、トップレベルのメタデータから順にリモート側で比較、手元にないデータのみを転送する仕組みだ。仮想マシン単位で重複排除するのではなく、リモート側の全データとの重複排除を行うため、効率が良い。
「仮想マシン単位でフルバックアップしつつも、リモート側ストレージの全データを重複排除対象にできます。フルバックアップでありながら差分バックアップより優れた転送時間と容量削減が可能で、送信元に負荷をかけません」(小川氏)
ここまで見てきたSimpliVityの特徴は、VDI環境でも大きな効果が期待できる。一般的なHCIを使ったVDIでは、システムOSがCPUを使用するため、実際にユーザーが利用できるCPUは少なくなる。中には、16コアのうち半分の8コア(vCPU)をシステムOSが消費するケースもあるという。これに対し、SimpliVityでは、16コアのケースで、4コア(vCPU)と半分で済む。その分、ユーザーが利用可能なCPUリソースは増えることになる。メモリも同様だ。
インメモリ技術やインライン重複排除でI/O性能そのものも向上するため、VDI環境のリンククローンのデプロイや再構成、リフレッシュも高速に実施できるという。これに加えてハードウェアRAIDや分散ストレージを使ったレプリカ生成でデータ保護を行うため、データ消失やパフォーマンス劣化といったこれまでのHCI製品の懸念を改善している。
SimpliVityは、ソフトウェア定義型ストレージにハードウェアの力を積極的に活用し、HCIの弱点を克服した製品といえる。
実は、性能のためにハードウェアの能力を活用していくという思想はHPEの既存製品にも見られる特徴だ。小川氏は「SimpliVityは2017年6月にHPEに加わったばかりのソリューションですが、元々世界中で多くのユーザーを抱えていたこともあり、品質は全く問題ありませんでした。スムーズに製品を展開しつつあり、2017年秋以降も続々とラインアップを拡充する予定です」と明かす。
国内ではオールフラッシュ製品(SimpliVity 380)を先行して提供してきたが、2017年秋にはよりリーズナブルなSSDを用いて価格を抑えたモデルや、中小規模向けのエントリーモデルの販売を開始。2018年にも「Hyper-V」対応モデルを提供する計画だ。
一般的なHCIの弱点を強みに変えるポテンシャルを持つユニークなストレージ実装を持つSimpliVity。次の選択にHCIを検討するならば、リストアップすべき製品の1つと言えるだろう。
Copyright © ITmedia, Inc. All Rights Reserved.
提供:日本ヒューレット・パッカード株式会社
アイティメディア営業企画/制作:TechTarget編集部/掲載内容有効期限:2018年10月31日