目的にマッチした、高度な分析モデルを作成することができればビジネスで効果が挙げられる。しかし実際ビッグデータ分析を始めると、データの準備や処理時間という課題に直面する。どう解決すればいいのか?
「ビッグデータの中に宝物があるはずだ」。そう信じて多くの企業がビッグデータの活用に踏み出している。これまで分析しきれず切り捨ててきたデータを掘り起こしたり、複数システムのデータを照合してみたり、外部のデータを取り込んだり。大量に収集したデータから何らかの新しい気付きという宝物があると期待しているのだ。
ただし、そのような挑戦の多くが道半ばで止まっているのも事実だ。データを寄せ集めれば即座に答えが出てくるものではない。実は、データ分析に掛かる労力で最も多いのは「データの準備段階」だという。データ分析というと予測や最適化といった分析モデルの作成をイメージしがちだが、実際にはデータを取得し、精査して、加工するなどの段階に最も労力がかかっている。
分析に有効なデータはどこにあるのか、分析に最適な形になっているのか、どうすれば求める答えは得られるのか。準備作業にかかる時間はデータ分析プロセスの大半を占めることとなり、実際にはこの準備が不十分で大きなボトルネックとなっている。この課題を解決するには?
提供:日本電気株式会社
アイティメディア営業企画/制作:TechTargetジャパン編集部