2011年12月12日 09時00分 UPDATE
特集/連載

未熟な部分も残るHadoopHadoopなどのビッグデータ技術が本当に普及するための条件

ビッグデータ活用で注目されているHadoopだが、より多くの企業で採用が進むには幾つか条件があるとアナリストたちは分析する。「従来型DWHよりもHadoopの方が優れている」といった宣伝文句には注意が必要だ。

[Alan R. Earls,TechTarget]

 米コンサルティング会社Winterのリチャード・ウィンター社長によると、「ビッグデータ」およびビッグデータ技術に関連して2つの主要な開発トレンドが進行中だという。その1つは、既存のデータウェアハウス(DWH)ベンダー各社がトランザクションデータ量の増大に対応するためにスケーラビリティの改善に取り組んでいるというもの。2番目のトレンドは、別の形態のビッグデータ(Webアクティビティログやセンサーデータなど)を処理するために、DWHに代わる手段としてHadoop(関連記事:Hadoopがビッグデータの分析基盤として注目されるわけ)、MapReduce、NoSQLデータベース(関連記事:NoSQLデータベースがビッグデータ対象のDWH基盤に適しているわけ)などのオープンソース技術の利用が拡大していることだ。

 「膨大な量のデータを管理、分析しなければならない場合、DWHは非常に高価なソリューションに思えるかもしれない」とウィンター氏は話す。しかしトランザクションデータに関する限り、この認識は必ずしも当てはまらないという。「データが高度に構造化され、厳格に管理され、企業内で継続的かつ広範に利用されるような用途では、DWH技術は全般的に高い投資対効果を示してきた」と同氏は指摘する。

 しかしビッグデータ管理に対するHadoop的アプローチは、特定のユースケースで経済性に優れている場合もある、とウィンター氏は言う。例えば、膨大なデータが発生する科学研究プロジェクトなどだ。スイスのジュネーブ近郊にある高エネルギー物理実験用装置Large Hadron Colliderの場合、1年間で約15P(ペタ)バイトの生センサーデータを生成する。「こういった大量のデータを処理するのは大変だが、Hadoopはこのような処理に適している」(ウィンター氏)

 Hadoopは、大量のデータをクラスタ型システムで分散処理することを可能にするフレームワークだ。そのコンポーネントであるMapReduceは、Hadoopベースのアプリケーションを開発するためのプログラミングモデルだ。米Forrester Researchのアナリスト、ジェームズ・コビーラス氏もウィンター氏と同意見で、「Hadoop技術はビッグデータの管理で重要な役割を果たす」と語る。また同氏は、2011年6月のブログ記事で「Forresterの顧客からのHadoop関連の問い合わせは、“Hadoopとは何なのか”という段階はとっくに過ぎて、今では“しっかりしたHadoopソリューションを提供しているのはどのベンダーか”という問い合わせが大半だ」と述べている。

ITmedia マーケティング新着記事

news025.jpg

AIなどが生む新サービスへの興味度、4カ国比較で日本が最下位――博報堂DYメディアパートナーズ調査
テクノロジーによって生活を変える55の新しいサービスへの興味度において、日本は調査対...

news133.jpg

Facebook広告のLift APIを活用した新しい広告運用手法、セプテーニが構築
セプテーニは「Lift API」を活用した新しい広告運用手法「Conversion Lift Based Optimiz...

news055.jpg

日本人がまだよく知らないYextと「DKM」のこと
2018年10月に米国ニューヨークで開催された「ONWARD18」の概要を紹介する。