2011年12月12日 09時00分 公開
特集/連載

Hadoopなどのビッグデータ技術が本当に普及するための条件未熟な部分も残るHadoop

ビッグデータ活用で注目されているHadoopだが、より多くの企業で採用が進むには幾つか条件があるとアナリストたちは分析する。「従来型DWHよりもHadoopの方が優れている」といった宣伝文句には注意が必要だ。

[Alan R. Earls,TechTarget]

 米コンサルティング会社Winterのリチャード・ウィンター社長によると、「ビッグデータ」およびビッグデータ技術に関連して2つの主要な開発トレンドが進行中だという。その1つは、既存のデータウェアハウス(DWH)ベンダー各社がトランザクションデータ量の増大に対応するためにスケーラビリティの改善に取り組んでいるというもの。2番目のトレンドは、別の形態のビッグデータ(Webアクティビティログやセンサーデータなど)を処理するために、DWHに代わる手段としてHadoop(関連記事:Hadoopがビッグデータの分析基盤として注目されるわけ)、MapReduce、NoSQLデータベース(関連記事:NoSQLデータベースがビッグデータ対象のDWH基盤に適しているわけ)などのオープンソース技術の利用が拡大していることだ。

 「膨大な量のデータを管理、分析しなければならない場合、DWHは非常に高価なソリューションに思えるかもしれない」とウィンター氏は話す。しかしトランザクションデータに関する限り、この認識は必ずしも当てはまらないという。「データが高度に構造化され、厳格に管理され、企業内で継続的かつ広範に利用されるような用途では、DWH技術は全般的に高い投資対効果を示してきた」と同氏は指摘する。

 しかしビッグデータ管理に対するHadoop的アプローチは、特定のユースケースで経済性に優れている場合もある、とウィンター氏は言う。例えば、膨大なデータが発生する科学研究プロジェクトなどだ。スイスのジュネーブ近郊にある高エネルギー物理実験用装置Large Hadron Colliderの場合、1年間で約15P(ペタ)バイトの生センサーデータを生成する。「こういった大量のデータを処理するのは大変だが、Hadoopはこのような処理に適している」(ウィンター氏)

 Hadoopは、大量のデータをクラスタ型システムで分散処理することを可能にするフレームワークだ。そのコンポーネントであるMapReduceは、Hadoopベースのアプリケーションを開発するためのプログラミングモデルだ。米Forrester Researchのアナリスト、ジェームズ・コビーラス氏もウィンター氏と同意見で、「Hadoop技術はビッグデータの管理で重要な役割を果たす」と語る。また同氏は、2011年6月のブログ記事で「Forresterの顧客からのHadoop関連の問い合わせは、“Hadoopとは何なのか”という段階はとっくに過ぎて、今では“しっかりしたHadoopソリューションを提供しているのはどのベンダーか”という問い合わせが大半だ」と述べている。

ITmedia マーケティング新着記事

news162.jpg

「ダークソーシャル」はユーザーの行動にどれだけ影響するか――ホットリンク調べ
DM(ダイレクトメッセージ)をきっかけとする消費者行動の実態とは。

news155.jpg

東京五輪を「訪日観戦したい」 中国58.4%、米国21.0%――ブレインパッド調べ
東京五輪に関して世界の2大国で意識調査。米中ともに約半数が東京五輪の開催を希望してお...

news152.jpg

「SFKETO」メンバーが語るMAとSFA連携 レベニュー組織の成果を最大化させるために必要なこととは?
「Marketo Engage」とSalesforceの両方を使う人々が集うコミュニティー「SFKETO(セフケ...