ビッグデータ活用の最初の難関「データ統合」をどうする?単なるETLでは限界

真のデータドリブン経営の実現には、レガシーシステムを含めたデータ統合が必要になる。だが品質を確保するには従来のETLツールでは限界がある。どうするか。

2017年06月30日 10時00分 公開
[ITmedia]

 ビッグデータ活用が叫ばれて久しいが、データウェアハウス(以下、DWH)構築やデータ統合を考えるとき、置き去りにされがちなのが、レガシーシステムやメインフレームが管理しているデータだ。

 データ統合を支える技術にはETL(Extract Transform Load)がある。ETLは企業内にある複数のシステムからデータを抽出し、変換、加工といった処理を加えてDWHやビジネスインテリジェンス(BI)ツールに受け渡す役割を担う。

 しかしETLツールでデータを統合するとなった場合、出力するファイル数に応じてバッチ処理が必要になり、その都度開発が必要になる。またバッチ処理をするための時間がかかり、スピードが求められるケースでは実用性が下がってしまう。

 企業が保有する全てのデータから有用な情報を得て、迅速な意思決定を実現するための基盤作りが求められる今日、最初にして最大級の課題となる「データ統合」について考える。


提供:シンクソート・ジャパン株式会社
アイティメディア営業企画/制作:TechTargetジャパン編集部