NVIDIA新アーキテクチャRubinが突きつける、AIインフラ“陳腐化”の衝撃:「Vera Rubin NVL72」の衝撃
NVIDIAが発表した次世代プラットフォーム「Vera Rubin NVL72」。その驚異的な性能は、企業にとって「待望の福音」か、それとも「既存投資を無に帰す脅威」か。
米ラスベガスで開催中の年次イベント「CES 2026」においてNVIDIAが投下した爆弾は、企業のAI(人工知能)戦略を根本から揺るがすものだった。同社が発表した次世代AIスーパーコンピュータ構築ツール群「Vera Rubin NVL72」は、わずか1年前の最新鋭であったGPU(グラフィックス処理装置)アーキテクチャ「Blackwell」の性能を、推論タスクで5倍、トレーニングで3.5倍という桁違いの数値で塗り替えた。
ユーザー企業にとって、これは単なる技術の進歩ではない。数億円規模の投資をして構築した、あるいは構築中のAI基盤が、稼働開始からわずか数カ月で「旧式」化し、競合他社に対してコスト効率で圧倒的な差をつけられるリスクを意味している。
Vera Rubin NVL72のすごさとは
NVIDIAの高性能コンピューティング・AIハイパースケールインフラストラクチャ担当シニアディレクターのディオン・ハリス氏はVera Rubin NVL72を投入した背景について、「昨年(2025年)から、大規模言語モデル(LLM)の知能に驚異的な飛躍が見られている」と説明する。そのため、より高性能な処理能力を持つインフラが必要だという。
Vera Rubin NVL72は処理能力を高めるために、現行のGPUアーキテクチャBlackwellの後継となる「Rubin GPU」を採用している。Rubin GPUは1秒当たり、最大22TBの帯域幅を持つ高帯域幅メモリを備える。
NVIDIAによると、Rubin GPUはBlackwellと比べ推論タスクで5倍、トレーニングワークロードの処理で3.5倍の速度を持つ。そのため、「専門家の混合」(MoE:Mixture of Experts)と呼ぶ手法を採用しやすくなるという。MoEとは、特定のタスクに特化したモデルを複数組み合わせることで、高度な回答を得られるようにする。
「Rubin GPUは、最も要求の厳しいMoEに必要な性能を提供する」とハリス氏は述べる。「Vera Rubin NVL72を用いれば、先進的なAIシステムを最低コストで構築することが可能になる」(同氏)
CPUについては、Vera Rubin NVL72はデータ移動とAI処理のために88基の「Olympus」コアを備えている。「Vera Rubin NVL72は、MoEトレーニングと推論において、前世代の『Grace CPU』と比較してデータの処理や圧縮、コードコンパイルの性能を倍増させている」とハリス氏は語る。
Vera Rubin NVL72が対処している主要なことは、長時間にわたるAI処理に必要なコンテキストメモリであるKVキャッシュの管理だ。AIエージェントが時間とともに状態を維持するために、GPUメモリは貴重なリソースとなる。
そのために、NVIDIAは推論専用のメモリ層を作成する推論コンテキストメモリストレージを発表した。これは、GPUと従来のストレージの間に配置され、NVIDIAのDPU(Data Processing Unit、データ処理装置)「BlueField-4」とイーサネットネットワーク技術「Spectrum-X」によって駆動される。
NVIDIAはVera Rubin NVL72をベースとした製品の投入を、2026年後半に予定していると説明する。
Copyright © ITmedia, Inc. All Rights Reserved.