ソーシャル解析や製造ラインでの不良品検出など、AIや機械学習の活用が本格的に進んでいる。この機械学習を効率化するカギとしてコンテナがある。従来は機械学習フレームワークごとにGPUを用意する必要があったが、コンテナなら単一環境での複数バージョンの保持や、オーバーヘッドなしでの切り替え・同時使用が可能になる。
ただ、コンテナ作成では、GPU向けカーネルモジュールとGPUライブラリーのバージョンに厳密な整合性が求められる点には配慮が必要だ。また、コンテナの活用が進むと「部品化」し、仮想化に比べて数が膨大になるという問題があるため、コンテナの自動配備やITリソース管理の自動化など、データセンター全体を管理する「OSのようなもの」が必要になってくる。
本コンテンツでは、このようにAIや機械学習をフル活用できる基盤づくりのポイントとして、GPUやコンテナの活用法を解説している。「第3次AIブーム」といわれるほどにAIの活用範囲が広がる今こそ、2020年以降を見据えた次世代基盤について検討しておきたいところだ。
みなさまがお持ちのTechTargetジャパン会員情報でHPE ONLINE-未来を加速する-のコンテンツをご覧いただけます。