NVIDIAは2025年のGTCで「Llama Nemotron」「Cosmos Reason」をはじめとする新製品群を発表した。激化するAI開発競争を生き残るために同社が打ち出した戦略とは。
これまでGPU(グラフィックス処理装置)の主要ベンダーとしてAI(人工知能)モデルの学習を支えてきた半導体ベンダーNVIDIAは、次世代のAI市場を見据え、推論、さらには実世界への応用へと戦略の軸足を移しつつある。
2025年3月に開催された年次イベント「NVIDIA GTC 2025」(以下、GTC)の基調講演では、NVIDIAは「推論」「フィジカルAI」「AIエージェント」に関する新たな製品群を発表した。GPUベンダーという枠を超えてNVIDIAが打ち出した戦略と、その背後にあるメッセージとは何か。
NVIDIAはGTCで、「NVIDIA Llama Nemotron」「Cosmos Reason」などの推論モデルを発表した。これに先立ち、2024年にはGoogleの「Gemini 2.0 Flash」やOpenAIの「o1」といった推論を強化したモデルが登場し、推論モデルに注力する動きが顕著になっている。2025年1月には中国のAIスタートアップDeepSeekが「DeepSeek R1」を発表したことで、この流れは一層加速している。
推論分野における存在感を一段と高めようとNVIDIAが発表したのが「NVIDIA Dynamo」だ。これは、AI推論の処理速度を強化し、大規模展開を可能にするオープンソースの推論ソフトウェアだ。NVIDIA Dynamoは「NVIDIA Triton Inference Server」の後継製品であり、トークン当たりの収益性を最大化するよう設計されている。同社が提唱する「AIファクトリー」での活用を想定している。AIファクトリーとはデータの収集から学習、運用までAIライフサイクル全体を包括的に統合する施設を指す。
NVIDIAのCEOジェンスン・ファン氏は基調講演で、「今後10年間でAI導入が加速するにつれて、推論は最も重要な処理の一つになる」と話した。NVIDIA Dynamoには、推論コストの削減とユーザーエクスペリエンスの向上を目的とした以下4つの機能が実装されているという。
調査会社Forrester Researchのアナリストを務めるマイク・グアルティエーリ氏は、「NVIDIAはこれまでAIモデルの学習に注力してきたが、今回の発表は推論分野への本格的な参入を意味する」と説明する。
推論分野では、Advanced Micro Devices(AMD)や富士通の他、推論専用チップ「AWS Inferentia」を自社開発するAmazon Web Services(AWS)などさまざまなベンダーが活動を強化しており、激しい競争が繰り広げられている。「推論市場はまだ開拓途上にあり、今後の成長余地が大きい。NVIDIAにも十分に勝機はあるが、“学習に強いベンダー”という既存のイメージだけでは勝てないだろう」とグアルティエーリ氏は指摘する。
NVIDIA DynamoはAI開発向けのソフトウェア群「NVIDIA AI Enterprise」に統合される予定で、同サービス内のマイクロサービス群「NVIDIA Inference Microservices」(NIM)から利用可能になる見込みだ。
加えてNVIDIAは、高負荷なAI推論処理に対応するための設計テンプレート「AI Data Platform」も発表している。これは、カスタマイズ可能なAIインフラ構築を支援するものであり、同社が推論分野に注力する姿勢を改めて印象付ける内容となっている。
NVIDIAは推論モデルの開発に本腰を入れる一方で、AIモデルの効率性向上にも注力している。調査会社Gartnerでアナリストを務めるアラン・チャンドラセカラン氏は、「推論モデルをより効率的に動かすための技術革新が進んでいる」と話す。
例えば、NVIDIA Llama Nemotronは推論モデルに複数のサイズを用意しており、同社のマイクロサービス群「NVIDIA Inference Microservices」(NIM)から以下の3種類が利用できる。
効率性向上の工夫としては「ハイブリッド推論機能」がある。これは、推論が不要な質問に対して推論機能をオフにすることで、処理に使うトークン(テキストデータを処理する際の基本的な単位)数を削減する仕組みだ。一般的に推論モデルでは回答生成に何千ものトークンを使用するため、このオプションはリソースを効率的に活用したいユーザーにとって大きなメリットとなる。
NVIDIAで企業向け生成AIソフトウェア担当のバイスプレジデントを務めるカリ・ブリスキー氏は次のように話す。「推論が本当に必要な場合もあれば、そこまで深い処理は必要ない場合もある。その両方に柔軟に対処できる単一のマルチタスクモデルを提供できることは大きなアドバンテージとなる」
ハイブリッドな推論モデルを提供するのはNVIDIAだけではない。2025年2月には、AIベンダーAnthropicがハイブリッド推論モデル「Claude 3.7 Sonnet」を発表している。
今後NVIDIAは、NVIDIA Llama Nemotronの開発に使用した合成データセットや、事後学習(Post-training:追加トレーニングや基盤となる事前学習済みモデルのアップデート)を公開し、企業が独自の推論モデルを構築できるようにする計画も明らかにしている。
NVIDIAは、世界基盤モデル(WFM:World Foundation Model)「NVIDIA Cosmos」の開発にも注力している。WFMとは、フィジカルAI(物理的な法則を理解し、それに基づいて物理空間で行動するAI)の基盤となり、現実世界の物理法則を理解できるAIモデルだ。
中でもNVIDIA Cosmosシリーズの一つCosmos Reasonは、オープンソースかつカスタマイズ可能な推論モデルで、フィジカルAIの開発に特化している。推論プロセスにおいて思考の流れを段階的に明示する「Chain-of-Thought」(CoT:思考の連鎖)手法を採用する。加えて、動画データを理解したり、現実世界での出来事を自然言語で予測したりできるなど、高度な推論能力を備える。
Cosmos Reasonは、フィジカルAIにおけるデータのアノテーション(ラベル付け)およびキュレーション(整理)の精度を向上させるという。開発者はCosmos Reasonに事後学習を施すことで、物理機器に指示を出すプランナーとして活用することもできる。
NVIDIAは、合成データ生成ツール「Cosmos Transfer」も発表した。これは、仮想世界を構築するためのツール群「NVIDIA Omniverse」で作成した3D(3次元)シミュレーションを、高品質の映像に変換し、大規模な合成データ生成を可能にするもので、学習用データの効率的な生成を可能にする。
NVIDIA Cosmosには新しい設計テンプレート「NVIDIA Omniverse Blueprints」が搭載され、そのうちの一つ「Mega」は、産業用デジタルツイン(現実の物体や物理現象をデータで再現したもの)環境において、複数のロボットを同時に動かす大規模テストを可能にする。
NVIDIAは、AIエージェントの構築を支援する新たなフレームワーク「NVIDIA AI-Q Blueprint」を発表した。この中核を担うのが「NVIDIA AgentIQ」というツールキットだ。これはオープンライセンスでソースコード共有サービス「GitHub」上で公開されており、複数のAIエージェントを連携、分析、最適化を支援するための基盤となる。
「NVIDIAはもはや単なるインフラベンダーではなく、AIモデルの実装から統合までを含めて包括的に支援できるというメッセージを出している」とチャンドラセカラン氏は語る。NVIDIAの取り組みは、顧客が自社環境においてAI推論モデルを導入、運用するための基盤整備を広く支援するためのものだと言える。
「NVIDIAは、推論、フィジカルAI、AIエージェントといった最先端領域への挑戦を通じて、顧客にインスピレーションを与えようとしている」(グアルティエーリ氏)
米国Informa TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
いまさら聞けない「仮想デスクトップ」と「VDI」の違いとは
遠隔のクライアント端末から、サーバにあるデスクトップ環境を利用できる仕組みである仮想デスクトップ(仮想PC画面)は便利だが、仕組みが複雑だ。仮想デスクトップの仕組みを基礎から確認しよう。
「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...
「マーケティングオートメーション」 国内売れ筋TOP10(2025年5月)
今週は、マーケティングオートメーション(MA)ツールの売れ筋TOP10を紹介します。