検索
特集/連載

ビッグデータ分析に必要な性能を満たすインフラの条件とは?ビッグデータ分析基盤の構築事例(前編)

多くの企業が、ビッグデータの膨大な量と多様さに対応できるインフラの整備に知恵を絞っている。データセンターのインフラを見直し、システムを刷新した企業の事例を紹介する。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 ビッグデータはもはや大企業の専売特許ではない。Web 2.0分野の巨人たちよりもはるかに少ないデータしか保有していない企業にも高度なデータ分析技術が進出しつつある(関連記事:企業のデータ活用動向、まずは基幹システムと顧客情報から)。

 「ビッグデータ」という表現は、米Facebookの「Inboxサーチエンジン」や米Googleの「MapReduce」から生まれたものだが、さまざまな業界の企業が事業拡大の戦略としてビッグデータ分析技術を利用するようになった。最近、ビッグデータ分析戦略をめぐって、米小売大手のTargetの取り組みが物議を醸した。これは、消費者の購入動向を予測して新規顧客を獲得するために、同社がビッグデータ分析技術を利用しているとされる問題だ。

 ITプロフェッショナルにとって、ビッグデータ分析は比較的小型で消費電力が少ない機器を大規模に水平展開した拡張型ファームを導入することを意味する場合が多い。これは、この仮想化時代に主流となってきた「融合と統合」というテーマとは正反対の志向だ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る