利便性が上がっても生産性が下がる? 「仮想デスクトップのワナ」からの脱却コストを減らしてITとユーザー両方の生産性を上げる

デスクトップ仮想化導入では、ユーザーの利便性と生産性を両立できない例が増えている。そこに潜む問題と対策について解説する。

2014年03月31日 00時30分 公開
[ITmedia]

 デスクトップ仮想化(VDI)を導入済みの企業が増えてきた。それに伴い導入企業に満足度をヒアリングできる機会も増えてきているが、IT部門とエンドユーザーの回答にはギャップが見られることも少なくない。

 1つの要因として挙げられるのが、導入目的の変化によるエンドユーザーの期待値とのギャップである。従来のようなデスクトップ管理の集中化、コンプライアンス維持だけが目的ではなく、モバイル、スマートデバイスの普及に伴い、それらを活用したワークスタイルの変革や生産性の向上へとその導入目的が変化していることが挙げられる。IT部門は多様なデバイスから、多様な業務アプリケーション(一般的なデスクトップアプリケーションだけでなく業務アプリケーションも含む)へのアクセスや利用といった対応を拡充することで、業務に対する利便性を高めている。

 しかし、利便性と生産性の間にはそもそもギャップがある。生産性とは、より少ないインプット(時間などを含む資源)でより多く、またはより価値の高いアウトプットを出すことである。利便性の尺度は主に「選択肢」や「カバレッジ」であるのに対して、生産性は「スループット」として言い換えることができる。では仮想デスクトップ環境でそのギャップを生じさせているものは何か。本記事では、そのギャップの原因と対策について紹介する。

 デスクトップ仮想化(VDI)をせっかく導入しても、ユーザーにとっての生産性が上がらないケースがしばしば見られる。ユーザーは、PCだけでなくスマートデバイスからデスクトップ環境にアクセスできることにはおおむね好意的で、状況に応じた端末の選択肢と、それらの端末による業務のカバレッジが増えることで利便性が高まっていると感じてはいるが、それと引き換えに、もともと物理デスクトップで得ていたパフォーマンスを失うことは望んでいない。仮想デスクトップ自体のパフォーマンスが悪ければ、どの端末を使おうが生産性は上がらず、むしろユーザーの不満は募るばかりである。

 実際に、仮想デスクトップの導入企業の中には、パフォーマンスの問題に直面する企業がとても多く、パフォーマンスを向上させるための追加の投資を許容できないために、プロジェクト自体がいったん頓挫した企業も少なくない。

 しかし、これがVDIの現実なのだろうか?

 「ユーザーの利便性や生産性を下げることなく、コストを抑える工夫は十分できる」とEMCジャパンの若松信康氏は否定する。同氏に、VDIにおけるユーザーの利便性と生産性の両立、及びコスト削減に向けたポイントを聞いた。

――なぜ、ユーザーにとっての生産性が下がるようなデスクトップ導入が多いのでしょうか?

若松氏 VDI環境で生産性を下げる最大の原因は、パフォーマンスです。そして、パフォーマンス問題の最大の原因は、ストレージです。EMCの調査では、VDIの設計ミスのトップ10のうち7つがストレージの設計によるものですが、その設計が適切に行われていないことがコストの増大を招いています。

 背景として、利便性を高めるために「デバイス」「アプリケーション」の対応を拡充するほど、ワークロードは多様化し、性能要件が複雑化することがあります。パフォーマンスに効率的に対処するための設計がますます重要となりますが、他方で、ユーザーデータはどんどん増加しますので、ストレージは容量ベースで設計したくなります。

EMCジャパン マーケティング本部 マーケティング・プログラム推進部 プリンシパル・マーケティング・プログラム・マネージャー 若松信康氏

 ですがVDIは明らかにI/Oインテンシブなアプリケーションです。容量の変化よりI/Oの変化の方がはるかに激しく、通常Windows 7のパワーユーザーのIOPS(1秒当たりのI/O)が15〜30程度に見積もられますが、デスクトップ検索をすると突発的に800程度のIOPSが発生することがあります。通常時の25〜50倍です。仮にそのIOPSが2秒続いたとすると、800IOPS×2秒=1600I/Oをさばく必要がありますが、25IOPSで設計していた場合、1600÷25=64秒も要する計算になります。その間処理できないI/OはI/O待ち状態となりますので、実際1分間停止します。その間の生産性はユーザーから見ると最悪ゼロと見積もられます。こういったI/Oにいかに安く対応するかという観点で設計しないと、効率的なシステムにはなりません。

――いかに安く速くするかという点について、もっと具体的に教えていただけますか?

若松氏 大きく価格性能比を左右するファクターとして、ストレージメディアの選択があります。単にIOPS単価だけ見れば、SSDはHDDの数十分の1ですから、安くI/O性能を買うならSSDです。ただ、容量単価がHDDの10倍前後しますので、容量のファクターと併せて適用を考える必要があります。データの総容量ではなく、I/Oがどのくらいのデータ領域にどのくらい集中するかという点です。

 VDIでいえば、「リンククローン」で展開するか、「フルクローン」で展開するかで、I/Oの集中度合は全く違います。リンククローンは、もともとユーザーごとに持っていたOSとベースとなるアプリケーションを共通イメージとして1つに集約して、全てのユーザーがそのデータ領域にアクセスします。容量が大幅に削減できる分、I/Oはそこに集中します。つまり、それだけ効率良く高速化できます。その領域が載るだけのSSDをキャッシュ用に搭載しておくことで、ブートストームなどの突発的なI/Oを含め、ほぼ8〜9割のI/Oはそこで処理でき、HDDの数を10分の1にまで減らしてコストを大幅に削減できたケースもあります。

 リンククローンは、ユーザー間で共通するOS、アプリのベースの部分を単一イメージとして管理、更新していくことで、アップデートの手間を削減したり、ユーザー個別のカスタマイズを防いでガバナンスを維持したいユーザーに多く採用されています。業種でいうと比較的金融機関に多いように思います。

 一方、開発に関連する業務の中で、デスクトップ環境のカスタマイズが必要で、従来の物理デスクトップ同様の自由度、利便性を維持したい場合があります。製造業でよく見られますが、そういう場合には、OSとアプリケーションをユーザーごとに持つフルクローンが採用されます。エンドユーザーの利便性の点ではフルクローンの方が良いわけですが、データ容量が増えますので、そのままではコストが増大します。また、I/Oは分散します。キャッシュへのヒット率が大幅に下がります。キャッシュにヒットさせるために、SSDを増やせばコストが上昇しますので、I/OをさばくためにHDDを大量に並べて並列処理する方法が取られます。それによって、結局以前と大差無い高価なシステムになるため、結果として性能問題が解消されないケースが多いです。

―― ではコスト削減のためのリンククローン、ユーザー利便性のためのフルクローンという使い分けが必要になってくるのでしょうか?

若松氏 これまではそうでした。今は違います。フルクローンでコスト増大の要因となるデータ量をリンククローンと同程度に抑えることができ、設計も不要にする方法があります。それは、「オールフラッシュストレージ」を使うことです。

――オールフラッシュストレージを使えば速くなるのは想像できますが、コストは大幅に上昇してしまうのではないでしょうか?

若松氏 単にオールフラッシュストレージというだけではもちろんダメです。オールフラッシュだからこそ実装できる「インライン重複排除機能」を備えていることが重要なポイントの1つです。

 フラッシュをフルクローンの全ての領域に利用すると、通常なら大きな容量が必要となり、コストは膨大になります。しかし重複排除機能があれば、重複する仮想デスクトップのベースイメージは、実質的に1つだけ保持することになります。つまりフルクローンとして運用しながらも、リンククローンと同様に共通するOS、アプリのイメージは、ストレージ内で1つに削減してくれる訳です。また、通常ユーザー間でも同じファイルを共有することが一般的です。ユーザーデータ領域の重複も排除できることで、リンククローンよりもデータ容量を抑えることもできます。

 さらに性能上のメリットも得られます。というのは、フラッシュというだけで速いのはもちろんなのですが、100%速いかというとそうではありません。

 フラッシュという記憶媒体は、読み出しに比べて書き込みが遅いという特徴があります。どこで重複排除をするかでも変わってきますが、DRAMで重複排除処理を行うことで重複するデータの書き込み処理がDRAMで完結し、フラッシュに対する書き込みの量が減ります。これはフラッシュの書き込み性能余力を増やすことになりますので、書き込みの多いVDI環境の性能を全体的に押し上げることにつながります。また、フラッシュに対する書き込みが減らせるということは、フラッシュの寿命を延ばすことにもつながります。

 重複排除機能がインライン方式であることも重要です。ストレージの重複排除機能には、ポストプロセス方式とインライン方式があります。ポストプロセス方式、つまりストレージにいったん書き込んだ後に非同期で重複排除の作業が実行されるような実装がなされている装置では、いったん全てのデータを書き込むための容量を確保する必要がある訳ですから、容量効率は低減します。フラッシュに対する書き込みも低減できず、性能上のメリットも得られません。一方インライン方式では、そのため余分な領域は不要です。

 EMCジャパンが提供している「EMC XtremIO」は、インライン方式の重複排除機能を備えたオールフラッシュストレージです。

「EMC XtremIO」が持つインライン方式の重複排除機能の仕組み

――インライン方式の重複排除機能でストレージコストの削減が期待できるのですね。VDI環境では、実際どのくらいのデータ量が削減できるのでしょうか?

若松氏 実際の例をご紹介します。米国の医療機器メーカーでは、XtremIOを採用して150ユーザーのフルクローンの仮想デスクトップ環境を構築しました。そのときの重複排除率は「52:1」でした。つまり、データ量は52分の1となり、フラッシュへの書き込み回数も52分の1になったことを意味します。

 SSDとHDDの容量単価は10倍前後と述べました。この数値はベンダーによって異なり、20倍と言っているベンダーもあります。10倍前後として単純計算した場合、ストレージ容量単価は5分の1です。たとえ20倍だったとしても、2分の1〜3分の1の単価になります。実際には、I/OをさばくためにHDDは実容量以上に積む必要がありますので、ディスク容量の削減率はもっと高いです。本来は10倍の価格だったものが、インライン重複排除によって逆転します。フラッシュの方がI/O単価でも容量単価でも安いオプションになり得るということです。そして、書き込み回数が52分の1になるということは、書き込みの性能が大幅に向上するのはもちろんのこと、フラッシュの寿命が52倍に延びたということです。SSDも、HDDと同程度の5年はせめて持ってほしいが……という心配とは無縁です。寿命の心配は不要です。

「EMC XtremIO」による重複排除の効果例

―― 従来よりも安いコストで高い性能、特に書き込み性能を得られることで、VDI環境のエンドユーザーの生産性を上げることができるということですね?

若松氏 書き込みは、まさに生産性の指標となるアウトプットです。つまり、コストを削減した上で、その生産性を高めることができるようになります。また、冒頭でお話した利便性を高めるためのデバイス、アプリケーションの対応の拡充はI/Oをランダムにしますが、フラッシュはもともとランダムI/Oの処理性能が高いため、性能上はボトルネックにはなりません。しかし、コストが高いため、なかなか導入を進められませんでした。インライン重複排除機能を持ったオールフラッシュストレージにすることで、コストを下げて、利便性を維持し、生産性を高めることが可能になります。

 また、エンドユーザーだけでなく、IT部門の生産性も高めることができます。

 XtremIOは、データ配置などのチューニングが不要です。XtremIOでは、全てのフラッシュドライブ間にわたって書き込みを自動的に分散平準化することで、特定のフラッシュのセルの劣化に伴う性能上のホットスポットが発生しないためです。常に一貫性の高い性能を自動的に維持し、ノードを追加するたびにリニアに性能をスケールアウトできます。まさにチューニングレスの環境を手に入れることが可能です。

 この生産性の高さが、150ユーザーといった比較的小さな規模で目に見える効果を手にすることができるという実績に表れています。実績は、もちろんこれだけではありません。XtremIOは、2013年11月14日にグローバルで製品の販売を開始しましたが、同年12月末時点、つまり、販売開始してからわずか1カ月半の間に300台以上出荷しています。1日5台以上です。まさに飛ぶ勢いで売れており、オールフラッシュストレージは急速に利用され始めています。


提供:EMCジャパン株式会社
アイティメディア営業企画/制作:TechTargetジャパン編集部/掲載内容有効期限:2014年12月14日