2011年12月12日 09時00分 UPDATE
特集/連載

未熟な部分も残るHadoopHadoopなどのビッグデータ技術が本当に普及するための条件

ビッグデータ活用で注目されているHadoopだが、より多くの企業で採用が進むには幾つか条件があるとアナリストたちは分析する。「従来型DWHよりもHadoopの方が優れている」といった宣伝文句には注意が必要だ。

[Alan R. Earls,TechTarget]

 米コンサルティング会社Winterのリチャード・ウィンター社長によると、「ビッグデータ」およびビッグデータ技術に関連して2つの主要な開発トレンドが進行中だという。その1つは、既存のデータウェアハウス(DWH)ベンダー各社がトランザクションデータ量の増大に対応するためにスケーラビリティの改善に取り組んでいるというもの。2番目のトレンドは、別の形態のビッグデータ(Webアクティビティログやセンサーデータなど)を処理するために、DWHに代わる手段としてHadoop(関連記事:Hadoopがビッグデータの分析基盤として注目されるわけ)、MapReduce、NoSQLデータベース(関連記事:NoSQLデータベースがビッグデータ対象のDWH基盤に適しているわけ)などのオープンソース技術の利用が拡大していることだ。

 「膨大な量のデータを管理、分析しなければならない場合、DWHは非常に高価なソリューションに思えるかもしれない」とウィンター氏は話す。しかしトランザクションデータに関する限り、この認識は必ずしも当てはまらないという。「データが高度に構造化され、厳格に管理され、企業内で継続的かつ広範に利用されるような用途では、DWH技術は全般的に高い投資対効果を示してきた」と同氏は指摘する。

 しかしビッグデータ管理に対するHadoop的アプローチは、特定のユースケースで経済性に優れている場合もある、とウィンター氏は言う。例えば、膨大なデータが発生する科学研究プロジェクトなどだ。スイスのジュネーブ近郊にある高エネルギー物理実験用装置Large Hadron Colliderの場合、1年間で約15P(ペタ)バイトの生センサーデータを生成する。「こういった大量のデータを処理するのは大変だが、Hadoopはこのような処理に適している」(ウィンター氏)

 Hadoopは、大量のデータをクラスタ型システムで分散処理することを可能にするフレームワークだ。そのコンポーネントであるMapReduceは、Hadoopベースのアプリケーションを開発するためのプログラミングモデルだ。米Forrester Researchのアナリスト、ジェームズ・コビーラス氏もウィンター氏と同意見で、「Hadoop技術はビッグデータの管理で重要な役割を果たす」と語る。また同氏は、2011年6月のブログ記事で「Forresterの顧客からのHadoop関連の問い合わせは、“Hadoopとは何なのか”という段階はとっくに過ぎて、今では“しっかりしたHadoopソリューションを提供しているのはどのベンダーか”という問い合わせが大半だ」と述べている。

この記事を読んだ人にお薦めの関連記事

注目テーマ

ITmedia マーケティング新着記事

news008.jpg

伊藤忠テクノソリューションズ藤岡良樹氏が語る、老舗大手SIerにマーケティングが必要になった理由
30年にわたりIT系B2B企業のマーケティング支援に携わってきたエキスパートが、マーケティ...

news085.jpg

スマートスピーカー対応の広告配信ネットワークを構築して音声広告配信、博報堂DYメディアパートナーズなど3社
博報堂DYメディアパートナーズなど3社は、スマートスピーカーなどで提供されるニュースコ...

news012.jpg

スマホネイティブの情報収集行動は「スクショ」「いいね!」――博報堂調べ
「スマートフォンユーザー情報行動調査2018」の結果が発表されました。スマートフォンの...