検索
特集/連載

Wikipediaのビッグデータ分析を支えるITインフラビッグデータ分析基盤の構築事例(後編)

多くの企業がビッグデータ分析のためにデータセンターインフラの見直しを進めている。その中には、新しいデータ分析プロジェクトを進めるに当たり、既存のインフラを見直したWikimedia Foundationも含まれている。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 前回の「ビッグデータ分析に必要な性能を満たすインフラの条件とは?」に続き、ビッグデータの分析基盤を構築した企業を紹介する。ビッグデータが大規模な検索エンジンや巨大なソーシャルネットワークというルーツから離れて新たな展開を見せるのに伴い、多くの企業でビッグデータを支えるデータセンターインフラを見直す必要に迫られている。

ビッグデータの浸透効果:eHarmony

 オンラインデートサイトの米eHarmonyでは、会員同士の出会いを支援するのに「Apache Hadoop」(以下、Hadoop)を利用している。ベースとなるデータ量は64Tバイトと比較的少ないものの、これに対応するために斬新なサーバインフラを追加したという。

 eHarmonyは2011年6月まで、米Amazonのクラウドサービスである「Elastic MapReduc」上でHadoopを運用していたが、毎月の利用料金が高額になったために、再び社内のデータセンターで運用することにした。

 しかしeHarmonyはHadoopを社内に戻すに当たり、CPUに大きな負荷を与えるワークロードを処理するための電力・冷却要件(256台のデュアルコアサーバのファームを運用)に対処する必要があったという。x86ベースの「Intel Xeon」サーバでは、電力と冷却に掛かるコストが膨大な金額になる可能性があった。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る