特集/連載
ビッグデータ分析に必要な性能を満たすインフラの条件とは?:ビッグデータ分析基盤の構築事例(前編)
多くの企業が、ビッグデータの膨大な量と多様さに対応できるインフラの整備に知恵を絞っている。データセンターのインフラを見直し、システムを刷新した企業の事例を紹介する。
ビッグデータはもはや大企業の専売特許ではない。Web 2.0分野の巨人たちよりもはるかに少ないデータしか保有していない企業にも高度なデータ分析技術が進出しつつある(関連記事:企業のデータ活用動向、まずは基幹システムと顧客情報から)。
「ビッグデータ」という表現は、米Facebookの「Inboxサーチエンジン」や米Googleの「MapReduce」から生まれたものだが、さまざまな業界の企業が事業拡大の戦略としてビッグデータ分析技術を利用するようになった。最近、ビッグデータ分析戦略をめぐって、米小売大手のTargetの取り組みが物議を醸した。これは、消費者の購入動向を予測して新規顧客を獲得するために、同社がビッグデータ分析技術を利用しているとされる問題だ。
ITプロフェッショナルにとって、ビッグデータ分析は比較的小型で消費電力が少ない機器を大規模に水平展開した拡張型ファームを導入することを意味する場合が多い。これは、この仮想化時代に主流となってきた「融合と統合」というテーマとは正反対の志向だ。
関連記事
- Amazon、Google、NTTドコモの事例が示すビッグデータの可能性
- Google Fusion TablesでGoogleが示すビッグデータ活用の未来
- ビッグデータ活用、インフラ選択前の5つの検討課題
- 先行事例で見えてきたビッグデータ活用の課題
Copyright © ITmedia, Inc. All Rights Reserved.