ユーザー企業調査にみるビッグデータ対応インフラの要件:ストレージを切り離して考えるべからず
米ESGの調査によると、ITおよびビジネスの重要な課題としてビッグデータ処理を挙げる企業が増えていることが分かった。同調査を基にビッグデータがもたらしたITインフラへの影響を示す。
アプリケーションとプロセッサの進化に伴い、多くの企業で膨大な量のデータが生み出される中、CTO(最高技術責任者)やCIO(最高情報責任者)、データアナリスト、ストレージ管理者など広範なITプロフェッショナルたちの間で、ビッグデータアナリティクスがホットな話題になっている。米Enterprise Strategy Group(ESG)は最近、ビッグデータ処理のトレンドに関する調査を実施し、同社の上席ストレージアナリスト、テリー・マクルーア氏がビッグデータ調査の結果を分析した。IT部門におけるビッグデータ処理の優先度、企業のビッグデータの平均サイズ、データをリアルタイムで分析する必要性、社内で許容できるダウンタイムといった問題に対する回答を以下にまとめた(企業のデータ活用動向、まずは基幹システムと顧客情報から)。
ビッグデータ活用に関する記事
- 【市場動向】企業システムの変遷に見るビッグデータ潮流の背景
- 【事例】「意思決定に貢献する」データ活用法とビッグデータ活用に必要なスキル
- BI導入の課題は「導入効果の明確化」、中堅企業では「データ整備」も
ビジネス課題としての重要度が増すビッグデータ対応
IT部門と業務部門の両方にとって、ビッグデータアナリティクスの重要性が高まっている。2011年に実施した調査で、中堅企業(従業員数500〜999人)および大企業(従業員数1000人以上)で自社のデータベース環境に精通しているIT部門の意思決定者に、ビッグデータアナリティクスの重要性について質問したところ、最も優先度が高いIT課題だと答えた人は6%で、トップ5に入ると答えたのは45%だった。2012年の調査で同じ質問をしたところ(ただし今回の調査では中堅企業の数が増えた他、従業員数がわずか100人程度の企業も含まれる)、データアナリティクスの取り組みを強化することが最も優先度が高いIT課題だと答えた人は、前回の3倍の18%に増え、トップ5に入るという回答は45%だった。
2012年のビッグデータ調査では設問を少し変え、全てのビジネス課題との比較でビッグデータの処理とアナリティクスを強化することの重要性についても尋ねた。この質問では回答の比率が大きく変化し、28%の回答者が最も重要なビジネス課題だと答え、トップ5に入ると答えた人は38%だった(関連記事:高まるDWHへの投資意欲、「砂金探し」のビッグデータ活用を成功させるには)。
処理対象のデータ量も増えている。2011年の調査では、典型的なデータアナリティクス作業で平均500Gバイト以上のデータを処理していると答えた人の割合は50%以上だった。これに対し、2012年の調査では、データアナリティクスの対象となるデータセットの最大サイズは平均で10Tバイトであった。
処理と分析のリアルタイム化も進んでいる。2011年の調査で更新の全般的頻度について質問したところ、回答者の15%がリアルタイムで更新していると答えたのに対し、1日以内に更新すると答えた人は38%だった。2012年の調査では、ビッグデータをめぐる最大の課題を特定するために、企業が最大のデータセットを更新する頻度を質問した。これに対し、22%の企業がリアルタイムで更新しており、45%がほぼリアルタイム(1日以内)で更新していると答えた。
ダウンタイムに対する許容度が非常に低いことも分かった。2012年の調査では、53%の回答者がダウンタイムとして許容できるのは3時間以内で、それを超えると大幅な売り上げ減少など業務に悪影響が出ると答えた。そのうちの6%は少しのダウンタイムも許容できないとした。24時間以上のダウンタイムにも耐えられるとしたのは、回答者の14%にすぎなかった。
ストレージへの影響
上記の結果は、ビッグデータをめぐる処理とアナリティクスのトレンドに関してESGが収集したデータの一部にすぎない。その上でこれらの問題を取り上げた理由は、それがデータストレージのインフラストラクチャに対して波及効果をもたらすからだ。データセットのサイズは巨大であり、絶えず成長を続けている。追加的分析およびデータ保護に必要なデータのコピーも含めると、この傾向は一層顕著となる。このため、IT部門にとっては、ストレージ管理者を増やさなくても効率的に需要に対応できるスケーラブルなストレージシステムが必要になる。同時に、ビッグデータアナリティクス――そしてほぼリアルタイムでの情報配信――は、ビジネス部門のアナリティクス推進者たちにとって優先度の高い課題となり、IT部門は基盤となるインフラストラクチャにも目を向ける必要がある(関連記事:ビッグデータからクラウドへとつながるストレージの潮流)。
実際、ESGの調査でも、データ処理とアナリティクスの要件を知っているITインフラストラクチャの意思決定者の多くは、高可用性を備えたストレージシステムには割高な価格を支払う用意があることが明らかになった。ストレージ環境に対するコスト意識が高いことは調査で示されているものの、階層型ストレージ、SSD(ソリッドステートドライブ)、各種の効率改善技術(データ削減やシンプロビジョニングなど)よりも、高可用性に対しては比較的高い費用を掛けてもよいと考えているユーザーは多い。
ストレージを他の要素から切り離して考えるのは間違いだ。ビッグデータを扱う今日の新世界では、明日のインフラストラクチャ要件を形成する最先端のトレンドを把握することが重要なのだ。インフラストラクチャが寿命前に時代遅れにならないようにするためにも。
本稿筆者のテリー・マクルーア氏は米Enterprise Strategy Groupのストレージアナリスト。
Copyright © ITmedia, Inc. All Rights Reserved.