検索
PR

「AI」「仮想空間」のインフラにGPUを活用する方法「コンテナ」「仮想マシン」でAIアプリケーションを動かす

AI技術の活用を進めるときに課題となるのが、実運用に適したインフラの選定だ。AI専用のハードウェアを用意し、一から構築するのは簡単ではない。GPU仮想化を使って効率的にAI技術用のインフラを用意する方法を説明する。

PC用表示
Share
Tweet
LINE
Hatena

 企業の機械学習を中心としたAI(人工知能)技術の導入に向けた取り組みは、PoC(概念実証)から実業務への導入を見据えた段階へと移行しつつある状況だ。

 この段階に進むと、新しい課題が生じる。AI技術を検証するためのPoC用のインフラは、各事業部門がGPU(グラフィックスプロセシングユニット)を搭載したサーバやワークステーションを導入し、独自に運用するのが一般的だ。それを本番運用に移すとなれば、自社のセキュリティポリシーの順守やガバナンス、運用管理の統一などが必要になる。

 事業部門やチーム単位で本番インフラを独自に運用し続けることができなければ、適切なタイミングでインフラをIT部門に移管することが必要となる。ベアメタル(物理マシン)でPoCを実施していた場合、これまでの物理マシンから仮想マシン(VM)へ移行することになる可能性もある。AI技術の活用に適したGPUインフラの構築は、どのように進めればよいのか。


提供:ネットワンシステムズ株式会社
アイティメディア営業企画/制作:アイティメディア編集局

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る