GPUのリソースを有効に活用してAI技術の処理を実行するには、従来のインフラ設計とは異なる観点が求められる。GPUの効果的な活用を模索している研究機関CERNによる取り組みと、GPU活用の要点とは。
人工知能(AI)技術の演算処理を実行するために欠かせない存在になっているのが「GPU」(グラフィックス処理装置)だ。欧州の研究機関であるCERN(欧州合同原子核研究機構)は、GPUをオンプレミスで効率よく扱う方法を模索している。CERNのコンピューティングエンジニアであるリカード・ロシャ氏は、フランスのパリで2024年3月に開催されたカンファレンス「KubeCon + CloudNativeCon」で、同研究機関が模索しているGPU活用について講演した。
汎用(はんよう)的なハードウェアが進化しており、複数のGPUを利用することで演算処理を高速化することが可能になっている。そうした中でCERNの粒子加速器研究室の研究員が模索しているのは、GPUを搭載する汎用のハードウェアで、機械学習などAI技術の処理を実行することだ。同研究機関の研究員は、汎用(はんよう)のハードウェアが、カスタマイズしたハードウェアの代わりになる可能性があるとみている。
ロシャ氏はカンファレンスで、「当研究機関が抱える課題の一つは、ハードウェアの使用パターンがCPU(中央演算装置)を利用する従来のアプリケーションと大きく異なることだ」と語った。例えば同氏の経験によると、GPUを利用するとデータセンターの電力要件と冷却要件が劇的に増加する。従来はHPC(ハイパフォーマンスコンピューティング)との関係が深かった技術を使用していることも試みの一つだという。例えば、GPUを接続する相互接続規格として「InfiniBand」を使用している。
CERNはGPUを利用すると同時に、ハードウェアの耐用年数を5年から8年に延ばした。「GPUを使いたいと考えるのはどの組織にとっても同じだが、GPUは極めて高価だ」と同氏は話す。
さまざまな種類の処理をGPUで実行するに当たり、ロシャ氏は「リソース使用のパターンを理解することが重要だ」と話す。GPUリソースの使用が控えめなパターンもあれば、集中的に高負荷の処理が必要になるパターンもある。予測可能な処理については、自動実行の処理をスケジューリングしておくなど、HPCのベストプラクティスを取り入れているという。
GPUをデータセンターに導入するに当たっての教訓は、「必要に応じてリソースを増減できる柔軟性をインフラに持たせておくことだ」とロシャ氏は語る。例えば、社外のシステムと連携させてGPUのリソースを利用できるようにしておくことが一つの手段になる。こうした手法は「設計当初に欠かせない検討事項だ」と同氏は述べる。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...
SEOを強化するサイトの9割超が表示速度を重視 で、対策にいくら投資している?
Reproが「Webサイトの表示速度改善についての実態調査 2024」レポートを公開。表示速度改...