「第3次AIブーム」といわれる今日だが、AIの価値を引き出すには分析基盤の効率化が欠かせない。そこで、オープンソース関連の技術書で多数の著作を持つエヴァンジェリストに、効率化の秘訣を聞いた。
ソーシャル解析や製造ラインでの不良品検出など、AIや機械学習の活用が本格的に進んでいる。この機械学習を効率化するカギとしてコンテナがある。従来は機械学習フレームワークごとにGPUを用意する必要があったが、コンテナなら単一環境での複数バージョンの保持や、オーバーヘッドなしでの切り替え・同時使用が可能になる。
ただ、コンテナ作成では、GPU向けカーネルモジュールとGPUライブラリーのバージョンに厳密な整合性が求められる点には配慮が必要だ。また、コンテナの活用が進むと「部品化」し、仮想化に比べて数が膨大になるという問題があるため、コンテナの自動配備やITリソース管理の自動化など、データセンター全体を管理する「OSのようなもの」が必要になってくる。
本コンテンツでは、このようにAIや機械学習をフル活用できる基盤づくりのポイントとして、GPUやコンテナの活用法を解説している。「第3次AIブーム」といわれるほどにAIの活用範囲が広がる今こそ、2020年以降を見据えた次世代基盤について検討しておきたいところだ。
みなさまがお持ちのTechTargetジャパン会員情報でHPE ONLINE-未来を加速する-のコンテンツをご覧いただけます。