2011年12月12日 09時00分 公開
特集/連載

Hadoopなどのビッグデータ技術が本当に普及するための条件未熟な部分も残るHadoop

ビッグデータ活用で注目されているHadoopだが、より多くの企業で採用が進むには幾つか条件があるとアナリストたちは分析する。「従来型DWHよりもHadoopの方が優れている」といった宣伝文句には注意が必要だ。

[Alan R. Earls,TechTarget]

 米コンサルティング会社Winterのリチャード・ウィンター社長によると、「ビッグデータ」およびビッグデータ技術に関連して2つの主要な開発トレンドが進行中だという。その1つは、既存のデータウェアハウス(DWH)ベンダー各社がトランザクションデータ量の増大に対応するためにスケーラビリティの改善に取り組んでいるというもの。2番目のトレンドは、別の形態のビッグデータ(Webアクティビティログやセンサーデータなど)を処理するために、DWHに代わる手段としてHadoop(関連記事:Hadoopがビッグデータの分析基盤として注目されるわけ)、MapReduce、NoSQLデータベース(関連記事:NoSQLデータベースがビッグデータ対象のDWH基盤に適しているわけ)などのオープンソース技術の利用が拡大していることだ。

 「膨大な量のデータを管理、分析しなければならない場合、DWHは非常に高価なソリューションに思えるかもしれない」とウィンター氏は話す。しかしトランザクションデータに関する限り、この認識は必ずしも当てはまらないという。「データが高度に構造化され、厳格に管理され、企業内で継続的かつ広範に利用されるような用途では、DWH技術は全般的に高い投資対効果を示してきた」と同氏は指摘する。

 しかしビッグデータ管理に対するHadoop的アプローチは、特定のユースケースで経済性に優れている場合もある、とウィンター氏は言う。例えば、膨大なデータが発生する科学研究プロジェクトなどだ。スイスのジュネーブ近郊にある高エネルギー物理実験用装置Large Hadron Colliderの場合、1年間で約15P(ペタ)バイトの生センサーデータを生成する。「こういった大量のデータを処理するのは大変だが、Hadoopはこのような処理に適している」(ウィンター氏)

 Hadoopは、大量のデータをクラスタ型システムで分散処理することを可能にするフレームワークだ。そのコンポーネントであるMapReduceは、Hadoopベースのアプリケーションを開発するためのプログラミングモデルだ。米Forrester Researchのアナリスト、ジェームズ・コビーラス氏もウィンター氏と同意見で、「Hadoop技術はビッグデータの管理で重要な役割を果たす」と語る。また同氏は、2011年6月のブログ記事で「Forresterの顧客からのHadoop関連の問い合わせは、“Hadoopとは何なのか”という段階はとっくに過ぎて、今では“しっかりしたHadoopソリューションを提供しているのはどのベンダーか”という問い合わせが大半だ」と述べている。

ITmedia マーケティング新着記事

news155.jpg

「エシカル」に積極的な企業は「良い印象」が9割以上――トレンダーズ調査
今後ますます注目が集まると考えられる「エシカル消費」。年代や性別ごとの意識の違いや...

news157.jpg

国内コネクテッドテレビ広告市場、2020年は102億円規模に――SMNとデジタルインファクト調査
テレビ同様の視聴体験を提供しつつインターネット広告同様に計測可能な国内コネクテッド...

news127.jpg

GAFAの序列変動やSpotify、Zoomなどの動向に注目 「Best Global Brands 2020」
世界のブランド価値評価ランキング。Appleは8年連続1位で前年2位のGoogleは4位に後退しま...