ユーザー企業調査にみるビッグデータ対応インフラの要件ストレージを切り離して考えるべからず

米ESGの調査によると、ITおよびビジネスの重要な課題としてビッグデータ処理を挙げる企業が増えていることが分かった。同調査を基にビッグデータがもたらしたITインフラへの影響を示す。

2012年09月26日 08時00分 公開
[Terri McClure,TechTarget]

 アプリケーションとプロセッサの進化に伴い、多くの企業で膨大な量のデータが生み出される中、CTO(最高技術責任者)CIO(最高情報責任者)、データアナリスト、ストレージ管理者など広範なITプロフェッショナルたちの間で、ビッグデータアナリティクスがホットな話題になっている。米Enterprise Strategy Group(ESG)は最近、ビッグデータ処理のトレンドに関する調査を実施し、同社の上席ストレージアナリスト、テリー・マクルーア氏がビッグデータ調査の結果を分析した。IT部門におけるビッグデータ処理の優先度、企業のビッグデータの平均サイズ、データをリアルタイムで分析する必要性、社内で許容できるダウンタイムといった問題に対する回答を以下にまとめた(企業のデータ活用動向、まずは基幹システムと顧客情報から)。

ビジネス課題としての重要度が増すビッグデータ対応

 IT部門と業務部門の両方にとって、ビッグデータアナリティクスの重要性が高まっている。2011年に実施した調査で、中堅企業(従業員数500〜999人)および大企業(従業員数1000人以上)で自社のデータベース環境に精通しているIT部門の意思決定者に、ビッグデータアナリティクスの重要性について質問したところ、最も優先度が高いIT課題だと答えた人は6%で、トップ5に入ると答えたのは45%だった。2012年の調査で同じ質問をしたところ(ただし今回の調査では中堅企業の数が増えた他、従業員数がわずか100人程度の企業も含まれる)、データアナリティクスの取り組みを強化することが最も優先度が高いIT課題だと答えた人は、前回の3倍の18%に増え、トップ5に入るという回答は45%だった。

 2012年のビッグデータ調査では設問を少し変え、全てのビジネス課題との比較でビッグデータの処理とアナリティクスを強化することの重要性についても尋ねた。この質問では回答の比率が大きく変化し、28%の回答者が最も重要なビジネス課題だと答え、トップ5に入ると答えた人は38%だった(関連記事:高まるDWHへの投資意欲、「砂金探し」のビッグデータ活用を成功させるには)。

 処理対象のデータ量も増えている。2011年の調査では、典型的なデータアナリティクス作業で平均500Gバイト以上のデータを処理していると答えた人の割合は50%以上だった。これに対し、2012年の調査では、データアナリティクスの対象となるデータセットの最大サイズは平均で10Tバイトであった。

 処理と分析のリアルタイム化も進んでいる。2011年の調査で更新の全般的頻度について質問したところ、回答者の15%がリアルタイムで更新していると答えたのに対し、1日以内に更新すると答えた人は38%だった。2012年の調査では、ビッグデータをめぐる最大の課題を特定するために、企業が最大のデータセットを更新する頻度を質問した。これに対し、22%の企業がリアルタイムで更新しており、45%がほぼリアルタイム(1日以内)で更新していると答えた。

 ダウンタイムに対する許容度が非常に低いことも分かった。2012年の調査では、53%の回答者がダウンタイムとして許容できるのは3時間以内で、それを超えると大幅な売り上げ減少など業務に悪影響が出ると答えた。そのうちの6%は少しのダウンタイムも許容できないとした。24時間以上のダウンタイムにも耐えられるとしたのは、回答者の14%にすぎなかった。

ストレージへの影響

 上記の結果は、ビッグデータをめぐる処理とアナリティクスのトレンドに関してESGが収集したデータの一部にすぎない。その上でこれらの問題を取り上げた理由は、それがデータストレージのインフラストラクチャに対して波及効果をもたらすからだ。データセットのサイズは巨大であり、絶えず成長を続けている。追加的分析およびデータ保護に必要なデータのコピーも含めると、この傾向は一層顕著となる。このため、IT部門にとっては、ストレージ管理者を増やさなくても効率的に需要に対応できるスケーラブルなストレージシステムが必要になる。同時に、ビッグデータアナリティクス――そしてほぼリアルタイムでの情報配信――は、ビジネス部門のアナリティクス推進者たちにとって優先度の高い課題となり、IT部門は基盤となるインフラストラクチャにも目を向ける必要がある(関連記事:ビッグデータからクラウドへとつながるストレージの潮流)。

 実際、ESGの調査でも、データ処理とアナリティクスの要件を知っているITインフラストラクチャの意思決定者の多くは、高可用性を備えたストレージシステムには割高な価格を支払う用意があることが明らかになった。ストレージ環境に対するコスト意識が高いことは調査で示されているものの、階層型ストレージ、SSD(ソリッドステートドライブ)、各種の効率改善技術(データ削減やシンプロビジョニングなど)よりも、高可用性に対しては比較的高い費用を掛けてもよいと考えているユーザーは多い。

 ストレージを他の要素から切り離して考えるのは間違いだ。ビッグデータを扱う今日の新世界では、明日のインフラストラクチャ要件を形成する最先端のトレンドを把握することが重要なのだ。インフラストラクチャが寿命前に時代遅れにならないようにするためにも。

本稿筆者のテリー・マクルーア氏は米Enterprise Strategy Groupのストレージアナリスト。

ITmedia マーケティング新着記事

news058.jpg

次世代生成AIで優位に立つのはMeta? Google? それともマスク氏のあの会社?
生成AI時代において、データは新たな金と言える。より人間らしい反応ができるようになる...

news183.jpg

GoogleからTikTokへ 「検索」の主役が交代する日(無料eBook)
若年層はGoogle検索ではなくTikTokやInstagramを使って商品を探す傾向が強まっているとい...

news160.jpg

B2B企業の市場開拓で検討すべきプロセスを定義 デジタルマーケティング研究機構がモデル公開
日本アドバタイザーズ協会 デジタルマーケティング研究機構は、B2B企業が新製品やサービ...