GPUのリソースを有効に活用してAI技術の処理を実行するには、従来のインフラ設計とは異なる観点が求められる。GPUの効果的な活用を模索している研究機関CERNによる取り組みと、GPU活用の要点とは。
人工知能(AI)技術の演算処理を実行するために欠かせない存在になっているのが「GPU」(グラフィックス処理装置)だ。欧州の研究機関であるCERN(欧州合同原子核研究機構)は、GPUをオンプレミスで効率よく扱う方法を模索している。CERNのコンピューティングエンジニアであるリカード・ロシャ氏は、フランスのパリで2024年3月に開催されたカンファレンス「KubeCon + CloudNativeCon」で、同研究機関が模索しているGPU活用について講演した。
汎用(はんよう)的なハードウェアが進化しており、複数のGPUを利用することで演算処理を高速化することが可能になっている。そうした中でCERNの粒子加速器研究室の研究員が模索しているのは、GPUを搭載する汎用のハードウェアで、機械学習などAI技術の処理を実行することだ。同研究機関の研究員は、汎用(はんよう)のハードウェアが、カスタマイズしたハードウェアの代わりになる可能性があるとみている。
ロシャ氏はカンファレンスで、「当研究機関が抱える課題の一つは、ハードウェアの使用パターンがCPU(中央演算装置)を利用する従来のアプリケーションと大きく異なることだ」と語った。例えば同氏の経験によると、GPUを利用するとデータセンターの電力要件と冷却要件が劇的に増加する。従来はHPC(ハイパフォーマンスコンピューティング)との関係が深かった技術を使用していることも試みの一つだという。例えば、GPUを接続する相互接続規格として「InfiniBand」を使用している。
CERNはGPUを利用すると同時に、ハードウェアの耐用年数を5年から8年に延ばした。「GPUを使いたいと考えるのはどの組織にとっても同じだが、GPUは極めて高価だ」と同氏は話す。
さまざまな種類の処理をGPUで実行するに当たり、ロシャ氏は「リソース使用のパターンを理解することが重要だ」と話す。GPUリソースの使用が控えめなパターンもあれば、集中的に高負荷の処理が必要になるパターンもある。予測可能な処理については、自動実行の処理をスケジューリングしておくなど、HPCのベストプラクティスを取り入れているという。
GPUをデータセンターに導入するに当たっての教訓は、「必要に応じてリソースを増減できる柔軟性をインフラに持たせておくことだ」とロシャ氏は語る。例えば、社外のシステムと連携させてGPUのリソースを利用できるようにしておくことが一つの手段になる。こうした手法は「設計当初に欠かせない検討事項だ」と同氏は述べる。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
ピザハットが新展開 まさかのTikTok動画活用法とは?
Pizza HutがUAEを中心に「トレンド払い」キャンペーンを展開している。TikTokのトレンド...
「レシピチェック」「少額決済」はデジタルが多数派に 逆にアナログでないとだめな活動とは?
博報堂生活総合研究所は、直近1年間における暮らし全般のデジタル化の度合いを調べる「生...
ホワイトペーパー制作が続かない! 苦しまず量産するため、どうすればいい?
前編ではB2B企業にとって本来あるべきホワイトペーパーの役割と成果を出すための3つの使...