多くの企業が、ビッグデータの膨大な量と多様さに対応できるインフラの整備に知恵を絞っている。データセンターのインフラを見直し、システムを刷新した企業の事例を紹介する。
ビッグデータはもはや大企業の専売特許ではない。Web 2.0分野の巨人たちよりもはるかに少ないデータしか保有していない企業にも高度なデータ分析技術が進出しつつある(関連記事:企業のデータ活用動向、まずは基幹システムと顧客情報から)。
「ビッグデータ」という表現は、米Facebookの「Inboxサーチエンジン」や米Googleの「MapReduce」から生まれたものだが、さまざまな業界の企業が事業拡大の戦略としてビッグデータ分析技術を利用するようになった。最近、ビッグデータ分析戦略をめぐって、米小売大手のTargetの取り組みが物議を醸した。これは、消費者の購入動向を予測して新規顧客を獲得するために、同社がビッグデータ分析技術を利用しているとされる問題だ。
ITプロフェッショナルにとって、ビッグデータ分析は比較的小型で消費電力が少ない機器を大規模に水平展開した拡張型ファームを導入することを意味する場合が多い。これは、この仮想化時代に主流となってきた「融合と統合」というテーマとは正反対の志向だ。
約8割の人が経験する「見づらいホームページ」 最も多い理由は?
NEXERはくまwebと共同で「見づらいホームページ」に関するアンケートを実施した。
スマホ時間の奪い合い「利用者増えても、利用時間は減少」 唯一の勝者は?
データマーケティング支援のGlossomは、「スマートフォンでのメディアとコマースの利用に...
生成AI時代のコンテンツ制作の課題 アドビが考える解決法は?
求められる顧客体験はますます高度になる一方で、マーケターのリソースは逼迫している。...