GPU活用がより身近になる? NVIDIAが示した「オンプレミスAI」の新たな選択肢:GPU市場の裾野拡大へ
大企業向けが主流だったAI基盤に変化の兆しがある。NVIDIAがBlackwell世代の新GPU「RTX Pro 6000」で狙う市場とは。
AI(人工知能)技術を自社で活用するための基盤を整えられるのは、大企業や大規模なデータセンターに限られているのが現状だ。高性能なGPU(グラフィックス処理装置)が大量の電力を消費し、大量の熱を発するため、冷却や電源といった大掛かりな設備投資が必要になるからだ。従業員が数千人規模の中堅企業や、既存のサーバルームや空調設備を活用したいと考える企業にとって、そうした冷却設備や電源強化への追加投資は大きなハードルとなっていた。その結果、多くの企業はAIをオンプレミスではなく、クラウドサービスを通じて利用せざるを得なかった。
この課題に対し、NVIDIAはGPUアーキテクチャ「Blackwell」を搭載した新GPUファミリー「RTX Pro 6000」と、そのサーバ向けモデル「NVIDIA RTX PRO 6000 Blackwell Server Edition」およびサーバ製品「RTX Pro」を発表した。これらは空冷での運用が可能で、標準的なラックに収まる設計を採用している。特別な冷却設備を用意しなくても、既存のデータセンターやサーバルームに導入できる点が大きな特徴だ。
「オンプレミスでGPU活用」がより身近に
併せて読みたいお薦め記事
GPUの進化とデータセンターの未来
RTX Pro 6000は空冷で稼働でき、標準的なサーバラックに収まる設計を採用している。そのため、既存のデータセンターやサーバルームでも増設や段階的な導入が容易になる。
さらにCisco SystemsやDell Technologies、Hewlett Packard Enterprise(HPE)、Lenovo、Supermicro Computerといったサーバベンダーと連携し、2U(ユニット)のサーバ構成で提供する。導入企業は自社の環境に合わせて選択でき、幅広い業務に活用可能だ。想定される用途は以下の通り。
- AIエージェント(自律的に業務を遂行するAI)
- コンテンツ制作
- データ分析とグラフィックス処理
- 科学技術計算(シミュレーション)
- インダストリアルAI(製造および現場向けAI)
- フィジカルAI(物理的な法則を理解し、それに基づいて物理空間で行動するAI)
アナリストが評価する市場インパクト
調査会社Moor Insights & Strategyのバイスプレジデント兼プリンシパルアナリストであるマット・キンボール氏は、「RTX Pro 6000ファミリーと、それを基盤とするRTX Proは、NVIDIAが最新世代のBlackwell GPUを限られた大企業だけでなく、幅広い企業に届ける取り組みだ」と評価している。
RTX Pro 6000ファミリーのGPUは、空冷および2U対応で導入障壁が低い。キンボール氏は「RTX Pro サーバは、こうした機能を大企業以外の顧客にも適切な規模で提供する。例えば、従業員5000人規模でサーバを1000台保有する企業が、全社的にAIエージェントを導入する光景を思い浮かべてほしい」と述べている。
一方、小規模なオンプレミスのデータセンターでは依然としてCPUが中心だ。しかし、AI活用の需要が高まる中で、RTX Pro 6000ファミリーは小規模企業にとってGPU導入の第一歩や既存環境のアップグレードとして有力な選択肢になり得るとアナリストは見ている。
NVIDIAが狙うGPU市場の裾野拡大
NVIDIAのエンタープライズAI担当バイスプレジデントであるジャスティン・ボイターノ氏は、企業の多様なニーズに応えるため、GPUとサーバの製品ラインを広げていく方針を示した。
同氏は「多くの企業は、電力消費が比較的少ない、あるいは空冷で運用する従来型のデータセンターを保有している。RTX Proサーバは、そうした既存のIT環境に適合するよう設計されており、導入の検討が進む中で幅広い業種から関心が寄せられている」と述べた。
さらにボイターノ氏は、GPU性能の強化によって、企業で扱える業務が広がる点を強調した。以下がその例だ。
- 仮想デスクトップの提供
- 設計アプリケーション
- AI学習に必要な合成データ生成
- 製造や都市開発で使われるデジタルツイン
「RTX Proサーバは、多様な用途に対応できる加速型コンピューティング基盤を提供する。企業がAIエージェントを構築し、実際の業務に展開していく段階において、私たちはデータのある場所に計算資源を持ち込んでいる」と付け加えた。
CPU中心アーキテクチャの限界と選択の分岐点
企業がAI活用を進めるにつれ、膨大な計算処理や電力を必要とする場面が増えている。その結果、CPUのみで構成された従来型のサーバでは処理能力に限界が見え始めている。一方で、コスト削減やセキュリティ確保の観点から、クラウド依存を見直し、オンプレミスやハイブリッド構成へ回帰する動きも強まっている。
ボイターノ氏は、最高情報責任者(CIO)が「AIに対応できないCPU中心のアーキテクチャに再投資すべきか、それともワークロードをクラウドへ移すべきか」という難しい判断を迫られていると指摘する。その上で次のように述べる。「今はCPU中心インフラへの追加投資を見直しても大きなリスクにはならない。むしろ投資を一時的に止め、資本をAI対応インフラに振り向けることで、自社をAI時代の構築と展開の軌道に乗せられる」
「NVIDIAがこれらのプラットフォームで進めている取り組みは賢明だ。これは単なる短期的な製品提供ではなく、商用エンタープライズ市場に加速型コンピューティング基盤を定着させる動きだ。今すぐの価値に加え、将来的に組織全体でAIエージェントを導入する段階でも力を発揮できる」(キンボール氏)
翻訳・編集協力:雨輝ITラボ(リーフレイン)
Copyright © ITmedia, Inc. All Rights Reserved.