NVIDIAが「脱GPU屋」に本気? これまでと違う一手とは「推論」「フィジカルAI」が次の鍵に

NVIDIAは2025年のGTCで「Llama Nemotron」「Cosmos Reason」をはじめとする新製品群を発表した。激化するAI開発競争を生き残るために同社が打ち出した戦略とは。

2025年04月25日 07時15分 公開
[Esther ShittuTechTarget]

関連キーワード

人工知能 | GPU


 これまでGPU(グラフィックス処理装置)の主要ベンダーとしてAI(人工知能)モデルの学習を支えてきた半導体ベンダーNVIDIAは、次世代のAI市場を見据え、推論、さらには実世界への応用へと戦略の軸足を移しつつある。

 2025年3月に開催された年次イベント「NVIDIA GTC 2025」(以下、GTC)の基調講演では、NVIDIAは「推論」「フィジカルAI」「AIエージェント」に関する新たな製品群を発表した。GPUベンダーという枠を超えてNVIDIAが打ち出した戦略と、その背後にあるメッセージとは何か。

NVIDIAは脱GPU屋に本気? これまでと違う一手とは

 NVIDIAはGTCで、「NVIDIA Llama Nemotron」「Cosmos Reason」などの推論モデルを発表した。これに先立ち、2024年にはGoogleの「Gemini 2.0 Flash」やOpenAIの「o1」といった推論を強化したモデルが登場し、推論モデルに注力する動きが顕著になっている。2025年1月には中国のAIスタートアップDeepSeekが「DeepSeek R1」を発表したことで、この流れは一層加速している。

 推論分野における存在感を一段と高めようとNVIDIAが発表したのが「NVIDIA Dynamo」だ。これは、AI推論の処理速度を強化し、大規模展開を可能にするオープンソースの推論ソフトウェアだ。NVIDIA Dynamoは「NVIDIA Triton Inference Server」の後継製品であり、トークン当たりの収益性を最大化するよう設計されている。同社が提唱する「AIファクトリー」での活用を想定している。AIファクトリーとはデータの収集から学習、運用までAIライフサイクル全体を包括的に統合する施設を指す。

 NVIDIAのCEOジェンスン・ファン氏は基調講演で、「今後10年間でAI導入が加速するにつれて、推論は最も重要な処理の一つになる」と話した。NVIDIA Dynamoには、推論コストの削減とユーザーエクスペリエンスの向上を目的とした以下4つの機能が実装されているという。

  • GPUプランナー
    • 需要の変動に応じてGPUリソースを柔軟にスケーリングする。これにより、過剰なリソース消費を抑え、最適なリソース配置を実現する。
  • 推論最適化ライブラリ
    • GPU間での高速な通信を支援し、推論処理の速度向上に役立つ。
  • メモリマネジャー
    • よりコスト効率の高いメモリおよびストレージデバイスに、推論データを自動でオフロード(一時退避)および再ロード(復元)するエンジン。ユーザーエクスペリエンスに影響を与えることなく、システム全体の効率化を図る。
  • スマートルーター(Smart Router)
    • リクエストの内容に応じて最適なGPUに割り当てることで、計算リソースの無駄を最小限に抑える。

 調査会社Forrester Researchのアナリストを務めるマイク・グアルティエーリ氏は、「NVIDIAはこれまでAIモデルの学習に注力してきたが、今回の発表は推論分野への本格的な参入を意味する」と説明する。

 推論分野では、Advanced Micro Devices(AMD)や富士通の他、推論専用チップ「AWS Inferentia」を自社開発するAmazon Web Services(AWS)などさまざまなベンダーが活動を強化しており、激しい競争が繰り広げられている。「推論市場はまだ開拓途上にあり、今後の成長余地が大きい。NVIDIAにも十分に勝機はあるが、“学習に強いベンダー”という既存のイメージだけでは勝てないだろう」とグアルティエーリ氏は指摘する。

 NVIDIA DynamoはAI開発向けのソフトウェア群「NVIDIA AI Enterprise」に統合される予定で、同サービス内のマイクロサービス群「NVIDIA Inference Microservices」(NIM)から利用可能になる見込みだ。

 加えてNVIDIAは、高負荷なAI推論処理に対応するための設計テンプレート「AI Data Platform」も発表している。これは、カスタマイズ可能なAIインフラ構築を支援するものであり、同社が推論分野に注力する姿勢を改めて印象付ける内容となっている。

「ハイブリッド推論」で効率化を追求

 NVIDIAは推論モデルの開発に本腰を入れる一方で、AIモデルの効率性向上にも注力している。調査会社Gartnerでアナリストを務めるアラン・チャンドラセカラン氏は、「推論モデルをより効率的に動かすための技術革新が進んでいる」と話す。

 例えば、NVIDIA Llama Nemotronは推論モデルに複数のサイズを用意しており、同社のマイクロサービス群「NVIDIA Inference Microservices」(NIM)から以下の3種類が利用できる。

  • Nano
    • PCやエッジデバイス向けで、高い精度を小型構成で実現する。
  • Super
    • 単一のGPUで高精度かつ高スループットを実現する。
  • Ultra
    • 複数のGPUを搭載するサーバで最高レベルのエージェント精度(agentic accuracy)を実現する。近日提供予定。

 効率性向上の工夫としては「ハイブリッド推論機能」がある。これは、推論が不要な質問に対して推論機能をオフにすることで、処理に使うトークン(テキストデータを処理する際の基本的な単位)数を削減する仕組みだ。一般的に推論モデルでは回答生成に何千ものトークンを使用するため、このオプションはリソースを効率的に活用したいユーザーにとって大きなメリットとなる。

 NVIDIAで企業向け生成AIソフトウェア担当のバイスプレジデントを務めるカリ・ブリスキー氏は次のように話す。「推論が本当に必要な場合もあれば、そこまで深い処理は必要ない場合もある。その両方に柔軟に対処できる単一のマルチタスクモデルを提供できることは大きなアドバンテージとなる」

 ハイブリッドな推論モデルを提供するのはNVIDIAだけではない。2025年2月には、AIベンダーAnthropicがハイブリッド推論モデル「Claude 3.7 Sonnet」を発表している。

 今後NVIDIAは、NVIDIA Llama Nemotronの開発に使用した合成データセットや、事後学習(Post-training:追加トレーニングや基盤となる事前学習済みモデルのアップデート)を公開し、企業が独自の推論モデルを構築できるようにする計画も明らかにしている。

世界基盤モデル「NVIDIA Cosmos」で実世界へのAI応用が加速

 NVIDIAは、世界基盤モデル(WFM:World Foundation Model)「NVIDIA Cosmos」の開発にも注力している。WFMとは、フィジカルAI(物理的な法則を理解し、それに基づいて物理空間で行動するAI)の基盤となり、現実世界の物理法則を理解できるAIモデルだ。

 中でもNVIDIA Cosmosシリーズの一つCosmos Reasonは、オープンソースかつカスタマイズ可能な推論モデルで、フィジカルAIの開発に特化している。推論プロセスにおいて思考の流れを段階的に明示する「Chain-of-Thought」(CoT:思考の連鎖)手法を採用する。加えて、動画データを理解したり、現実世界での出来事を自然言語で予測したりできるなど、高度な推論能力を備える。

 Cosmos Reasonは、フィジカルAIにおけるデータのアノテーション(ラベル付け)およびキュレーション(整理)の精度を向上させるという。開発者はCosmos Reasonに事後学習を施すことで、物理機器に指示を出すプランナーとして活用することもできる。

 NVIDIAは、合成データ生成ツール「Cosmos Transfer」も発表した。これは、仮想世界を構築するためのツール群「NVIDIA Omniverse」で作成した3D(3次元)シミュレーションを、高品質の映像に変換し、大規模な合成データ生成を可能にするもので、学習用データの効率的な生成を可能にする。

 NVIDIA Cosmosには新しい設計テンプレート「NVIDIA Omniverse Blueprints」が搭載され、そのうちの一つ「Mega」は、産業用デジタルツイン(現実の物体や物理現象をデータで再現したもの)環境において、複数のロボットを同時に動かす大規模テストを可能にする。

オープンソースの「NVIDIA AgentIQ」がAIエージェント開発の中核に

 NVIDIAは、AIエージェントの構築を支援する新たなフレームワーク「NVIDIA AI-Q Blueprint」を発表した。この中核を担うのが「NVIDIA AgentIQ」というツールキットだ。これはオープンライセンスでソースコード共有サービス「GitHub」上で公開されており、複数のAIエージェントを連携、分析、最適化を支援するための基盤となる。

 「NVIDIAはもはや単なるインフラベンダーではなく、AIモデルの実装から統合までを含めて包括的に支援できるというメッセージを出している」とチャンドラセカラン氏は語る。NVIDIAの取り組みは、顧客が自社環境においてAI推論モデルを導入、運用するための基盤整備を広く支援するためのものだと言える。

 「NVIDIAは、推論、フィジカルAI、AIエージェントといった最先端領域への挑戦を通じて、顧客にインスピレーションを与えようとしている」(グアルティエーリ氏)

TechTarget発 先取りITトレンド

米国Informa TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

髫エ�ス�ス�ー鬨セ�ケ�つ€驛「譎擾スク蜴・�。驛「�ァ�ス�、驛「譎冗樟�ス�ス驛「譎「�ス�シ驛「譏懶スサ�」�ス�ス

製品資料 東京エレクトロン デバイス株式会社

生成AI活用の鍵、セキュリティと利便性を両立するための方法とは?

生成AIの活用には機密情報漏えいなどのリスクがあるため、利用を制限しているケースもある。しかし、完全に利用を制限してしまうと競合に後れを取る可能性がある。そこで重要なのが、セキュリティと利便性を両立できるような環境構築だ。

製品レビュー ストックマーク株式会社

AI技術を使って必要な情報を自動で抽出/要約する「情報収集サービス」の実力

日々情報が増え続ける今、業務に必要な全ての情報を、社内外の関連ニュースや論文、特許情報などから収集していくのは至難の業だ。そこで業務に必要な情報を着実に届けるための仕組み作りに役立つサービスを紹介する。

製品資料 ゼットスケーラー株式会社

セキュリティリーダー必見:データセキュリティの複雑化によるリスクの解消方法             

クラウド利用の拡大に伴い、データが分散・肥大化する中、従来のセキュリティ対策の限界が見え始めている。データの所在や利用状況を可視化し、リスクを事前に把握して対応することが求められる今、有効となる新たなアプローチを探る。

市場調査・トレンド ゼットスケーラー株式会社

AI/MLトランザクション分析から読み取る、企業のリスク管理とセキュリティ課題

AIの活用が急速に進む一方で、セキュリティリスクの増大が懸念され、企業の対応が急務となっている。本資料では、2024年2~12月までの5365億件のAI/ML(機械学習)トランザクションの分析に基づき、その実態と対策を多角的に考察する。

事例 富士通株式会社

富士通が実践、AI時代に最適な設計プロセスを実現する方法

製造業の設計現場では、設計プロセスの複雑化などの課題が山積している。こうした中、注目を集めているのが生成AIの活用だ。本資料では、生成AIがもたらす設計業務の未来について、詳しく解説する。

驛「譎冗函�趣スヲ驛「謨鳴€驛「譎「�ス�シ驛「�ァ�ス�ウ驛「譎「�ス�ウ驛「譎「�ソ�ス�趣スヲ驛「譎「�ソ�スPR

From Informa TechTarget

いまさら聞けない「仮想デスクトップ」と「VDI」の違いとは

いまさら聞けない「仮想デスクトップ」と「VDI」の違いとは
遠隔のクライアント端末から、サーバにあるデスクトップ環境を利用できる仕組みである仮想デスクトップ(仮想PC画面)は便利だが、仕組みが複雑だ。仮想デスクトップの仕組みを基礎から確認しよう。

NVIDIAが「脱GPU屋」に本気? これまでと違う一手とは:「推論」「フィジカルAI」が次の鍵に - TechTargetジャパン エンタープライズAI 髫エ�ス�ス�ー鬨セ�ケ�つ€鬮ォ�ェ陋滂ソス�ス�コ�ス�ス

TechTarget驛「�ァ�ス�ク驛「譎「�ス�」驛「譏懶スサ�」�趣スヲ 髫エ�ス�ス�ー鬨セ�ケ�つ€鬮ォ�ェ陋滂ソス�ス�コ�ス�ス

ITmedia マーケティング新着記事

news017.png

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

news027.png

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

news023.png

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...