2018年02月19日 10時00分 公開
PR

「仮想化ファースト」時代のバックアップ問題仮想環境のバックアップ、知られていない「大規模特有の破綻リスク」と回避策

基幹システムなど重要システムの仮想環境移行が進んでいる。しかし大規模環境“特有”のバックアップリスクを把握しているだろうか。知らないと危険な落とし穴を解説する。

[ITmedia]

 仮想化ソフトウェアの機能向上や専用インフラの台頭により、大容量かつ高性能が求められるミッションクリティカルなアプリケーションや基幹業務システムが仮想化基盤上に展開されることも珍しいものではなくなった。HCIを含めた仮想化市場の成長からも見て取れるように、システム化の際にまずは仮想環境を検討するという「仮想化ファースト」のIT戦略にかじを切る企業も増えている。

 これに伴い、仮想環境に適したデータ保護の重要性が一気に高まっている。VMware環境のバックアップは、これまで一般的に「vStorage API for Data Protection(VADP)」と「Changed Block Tracking(CBT)」、すなわちVMwareのスナップショットと差分データの組み合わせを使って行われてきた。これは現状のほぼ全てのVMware環境に対応できるバックアップの仕組みであり、「ある程度」の規模の仮想環境までならば最適解といえるものだ。

 では、「ある程度」を超えると、どうなのだろうか。実はそこにリスクがある。大容量、高性能かつ頻繁なデータ更新、こうした条件が重なった大規模仮想環境において、複数の仮想マシンを同時にバックアップすると、仮想マシンの予期せぬ性能低下やStun(無応答状態)を引き起こす。扱うシステムやデータ量が膨大であればその処理にかかる負担は大きくなる一方で、最終的にはバックアップができないほどの状況に陥ってしまうという。今後、今以上に扱うべきデータ量が増え、高性能が要求される時代に入るだろう。企業にとって価値の高いデータを扱うミッションクリティカルなアプリケーションや基幹業務システムにおいて、そのような事態を招く前に、打つ手はあるのだろうか。

 本稿では、大規模な仮想環境におけるデータ保護について不安を持つ企業、また、これから基幹業務システムや重要アプリケーションの仮想環境移行を検討している企業のために、バックアップ破綻のリスクとその回避策を解説する。

提供:EMCジャパン株式会社

提供:EMCジャパン株式会社
アイティメディア営業企画/制作:TechTargetジャパン編集部