企業は、ビッグデータの処理基盤をクラウドに移している。この動きは、それまでのITスキルを覆すことはないが、管理者や開発チームには幾つか変化が求められるだろう。
新しいビジネスチャンスを見つけるため、もしくは気付いていない不備、不満を見つけるために企業はビッグデータの活用を推進し続けている。以前に比べクラウドの利用ハードルが下がった今、企業はビッグデータをクラウドに送り込もうとしている。だが、ビッグデータの分析チームにはその準備ができているだろうか。
既に自社のデータセンター内でビッグデータへの取り組みを進めているとしても、クラウドでの成功が約束されるわけではない。多くの場合、新しいトレーニングとスキルセットが必須になる。
一般にクラウドでビッグデータを扱う場合は、オンプレミスの導入に比べてコストを削減できると話すのは、IT調査会社のEnterprise Strategy Groupでシニアアナリストを務めるマイク・レオネ氏だ。クラウドでビッグデータのシステムやプロジェクトを運用する場合、基本的にビッグデータの専門家をスタッフとして抱える必要はない。例外は分散処理フレームワークの「Hadoop」が関わる場合だけである。
「例えば、オンプレミスの5ノードHadoopクラスタをクラウドの5ノードHadoopクラスタに置き換えるのは実に簡単だ。だが、これを管理するのは難しい。特にソフトウェアの相互運用性に関連する課題が生じる」(レオネ氏)
ITトレーニング企業のLinux Academyでビッグデータ分析部門のディレクターを務めるマニーシャ・スーレ氏によると、ITチームは4つの主要分野に注目すれば、クラウドでビッグデータを適切に扱うことができるという。
【Googleが公式見解を発表】中古ドメインを絶対に使ってはいけない理由とは?
Googleが中古ドメインの不正利用を禁止を公式に発表しました。その理由や今後の対応につ...
「TikTok禁止法案」に米大統領が署名 気になるこれからにまつわる5つの疑問
米連邦上院が、安全保障上の理由からTikTokの米国事業の売却を要求する法案を可決し、バ...
「気候危機」に対する理解 日本は米国の3分の1
SDGsプロジェクトはTBWA HAKUHODOのマーケティング戦略組織である65dB TOKYOと共同で、「...