検索
特集/連載

脱クラウドの受け皿か NVIDIA×国内連合にみる「AIコスト削減」の現実味2026年、失敗しないAIインフラ選定の条件

円安や地政学リスク、経済安全保障政策を背景に、2026年はAIインフラの「国内回帰」が進む可能性がある。NVIDIAと提携する国内企業の動向から、情シスが取るべきインフラ戦略の最適解を探る。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

関連キーワード

人工知能


 2026年、日本の企業ITにおける注目トピックの1つは、AI(人工知能)インフラの「国内回帰」だ。日本企業はこれまで、コスト効率と拡張性を求めてAWS(Amazon Web Services)やMicrosoft Azureといった海外ハイパースケーラーへの依存を深めてきた。しかし、円安によるコスト増、地政学リスクの高まり、経済安全保障推進法に基づく「特定重要物資クラウドプログラムの供給確保計画」(クラウドプログラム)を背景に、状況は変化しつつある。

 NVIDIAのジェンスン・フアンCEOが提唱する「AIファクトリー構想」(注1)は、日本の通信キャリアやクラウド事業者によって具現化されつつある。ソフトバンクは、NVIDIAのGPU(グラフィックス処理装置)アーキテクチャ「Blackwell」を搭載した大規模計算基盤を稼働させている(注2)。他にも、さくらインターネット、KDDIも自社サービスにBlackwellを活用している。

 国内ベンダーがAIファクトリー構想を推進する理由は、「国産製品の愛護」ではない。データ主権を守りつつ、物理的な距離の近さを生かした低遅延な推論環境(エッジAI)を手に入れること、電力効率の最適化によるランニングコストの抑制という経営判断に基づいている。本稿は、NVIDIAと提携する国内ベンダー各社の動向をまとめ、IT部門にとっての「インフラ選定」の最適解を探る。

AIインフラの「地産地消」が始まる

 NVIDIAのGPUリソースを「電気」のように供給するAIグリッドの構築において、ソフトバンク、さくらインターネット、KDDI、GMOインターネットグループといったベンダー提供領域が重なり競争が強まっている。各社の戦略は異なるため、ユーザー企業は自社のニーズに応じて使い分ける必要がある。

ソフトバンク

 ソフトバンクは、NVIDIAのAIアプリケーション向けHPC(高性能コンピューティング)のレファレンスアーキテクチャ「DGX SuperPod」を採用し、AIアクセラレーター「NVIDIA DGX B200」システムを搭載したAIスーパーコンピュータを構築している。これにより、「AI計算基盤の計算能力としては国内最大級となる25.7エクサフロップス(理論値)の計算能力の実現を目指す」計画だ(注3)。

 特筆すべきは、GPUを並べるだけでなく、5G通信ネットワークとAI計算基盤を統合する「AI-RAN」(Artificial Intelligence Radio Access Network)構想の実用化に向けた動きだ。AI-RANは、NVIDIAのアクセラレーテッドコンピューティング用モジュール「NVIDIA GH200 Grace Hopper Superchip」を活用し、同一のサーバ上で仮想無線アクセスネットワーク(vRAN)を基盤に、通信処理とAI推論を同時に実行する。通信トラフィックが少ない時間帯には、その計算リソースを生成AIの学習や推論に振り向けることで、設備投資効率を劇的に高めることができる(注4)。

 ユーザー企業にとってのメリットは、全国に張り巡らされた通信拠点がそのまま「エッジAIデータセンター」として機能することだ。自動運転や工場のロボット制御など、ミリ秒単位の低遅延が求められるアプリケーションにおいて、ソフトバンクのAI-RANインフラは優位性を持つと考えられる。

さくらインターネット

 さくらインターネットは、日本政府からクラウドプログラムの供給確保計画認定を受けた最初の民間企業として、「ソブリンクラウド」(国産クラウド)の中核を担っている。同社は、石狩データセンターにおいて「高火力」シリーズを展開し、「NVIDIA H100 GPU」を2000基規模で導入済み、さらにB200搭載モデルのGPUの拡張を進めている(注5)。

 さくらインターネットの強みは、立地を生かした「再生可能エネルギー電源100%」かつ「外気冷却」による運用コストの低減だ。高騰する電気代はAIインフラの利用料に直結する。電力効率のよいデータセンターを選ぶことは、総保有コスト(TCO)削減の鍵となる。さくらインターネットは、物理サーバを専有できる「高火力PHY」といったベアメタルを利用できるサービスも提供している。仮想化のオーバーヘッドを好まない研究開発部門や、機密データを他社と共有したくない金融機関や公共機関からの支持がある(注6)。

KDDI

 KDDIは、HPE(Hewlett Packard Enterprise)との提携により、2026年1月下旬から大阪府にAIデータセンターの稼働を開始予定だ。この施設は、NVIDIAのコンピューティングシステム「NVIDIA GB200 NVL72」を導入する計画だ(注7)。

 KDDIのAI戦略の焦点は「冷却」にある。NVIDIA GB200 NVL72のような次世代GPUは発熱量が膨大なため、従来の空冷方式で賄うのは困難だ。KDDIはHPEと協力してダイレクトチップ液冷(Direct Liquid Cooling)技術を採用し、高密度かつ高効率な冷却を実現する。同社は法人向けAIビジネスプラットフォーム「WAKONX」を通じて、AIインフラを企業のDX支援と連携させる取り組みを進めている。KDDIの子会社であるELYZAが開発した日本語の大規模言語モデル(LLM)と組み合わせ、インフラからアプリケーションを一気通貫で提供できる点が、SIer(システムインテグレーター)としてのKDDIの強みだ。

GMOインターネットグループ

 急速に存在感を高めているのがGMOインターネットグループだ。「GMO GPUクラウド」は、NVIDIA H100 GPUや「NVIDIA H200 GPU」を利用できるGPUクラウドサービスで、比較的短い導入リードタイムで利用を開始できる点や、価格面での選択肢を用意している点が特徴だ。2025年2月からはMIG(Multi-Instance GPU)機能に対応し、1枚のGPUを分割して利用可能にすることで、小規模な検証用途や推論処理など、GPUリソースを必要最小限で使いたいケースにも対応している。同社は、「NVIDIA Spectrum-X Ethernet」(大容量データの高速処理を可能にする「DPU」<データ処理装置>とSpectrum Ethernetスイッチを組み合わせたアーキテクチャ)を組み込んで、AIモデルが実行する処理を高速化するスイッチの仕組み)を採用している。「InfiniBand」に代わる選択肢として、AI用途向けに最適化されたEthernetを用いてAIワークロードを高速化する技術を取り入れている点も特徴となっている(注8)。

アプリケーション層の進化:「汎用LLM」から「特化型エージェント」へ

 アプリケーション層については、富士通とNECが、日本企業の商習慣やセキュリティ要件に適合させたサービスを展開している。

富士通

 富士通は2024年9月、企業向けLLM「Takane」と、TakaneをベースとしたAIエージェント「Fujitsu Kozuchi」の提供を開始すると発表した。同社は2025年10月、NVIDIAとの戦略的協業を拡大。再販パートナーから協業パートナーへと関係を変え、AIエージェントの活用を前提としたフルスタックAI基盤を共同構築することを発表した(注9)。その基盤となるのが、Fujitsu Kozuchiだ。

 富士通は、同社のAIエージェントをNVIDIAのAIエージェント構築ツール「NVIDIA NeMo」で最適化し、自社のCPU「FUJITSU-MONAKA」とNVIDIAのGPUを組み合わせたハイブリッド基盤で稼働させ、処理性能と電力効率の両立を目指している。

NEC

 NECの強みは、長年のスパコン開発で培った技術力と、日本語処理に特化したLLM「cotomi」にある。cotomiは、比較的コンパクトなモデルサイズで高い日本語理解力を持ち、AIエージェントの機能も備える。

 NECは、データをパブリッククラウドに出せない企業向けに、オンプレミス環境やプライベートクラウドでのLLM構築支援を強化している。NVIDIAのGPUサーバを顧客のデータセンターに設置し、クローズドな環境でcotomiをファインチューニングするサービスは、セキュリティポリシーが厳しい製造業や官公庁にとって、現実的な導入アプローチとして注目されている。

事業会社のDXとNVIDIA

 製造業や物流業が直面する人手不足に対し、産業メタバース(3次元仮想空間)とフィジカルAI(自動運転車やロボットなどのデバイスにAIを組み合わせて、自律的に動作できるようにするための技術)を融合させる取り組みが進んでいる。

日立製作所

 日立製作所は、製造業や社会インフラ分野で培ってきた知見を生かし、デジタルと現実世界を融合するメタバース活用を本格化させている。その中核に位置付けられるのが、同社のAI Factory構想だ。同社はAI FactoryとNVIDIAの「Omniverse」(3Dデータやシミュレーションを統合するためのプラットフォーム)を連携し、業務の高度化を図っている。これは、日立が持つOT(制御技術)のドメイン知識と、NVIDIAのAI技術を融合させる取り組みだ(注10)。

 例えば、鉄道車両の走行データや線路の状態をリアルタイムで仮想空間に再現し、故障の予兆を検知するだけでなく、AIエージェントが保守員に対して最適な修理手順を指示する。これにより、熟練技術者が不足する現場でも、安全かつ効率的な運行維持が可能となる。

マクニカ

 技術商社であるマクニカは、NVIDIAの技術をユーザー企業が検証できるサービス「AI TRY NOW PROGRAM」を提供している。同プログラムは、NVIDIAのDGX(AIスーパーコンピュータプラットフォーム)やOmniverseを、マクニカが用意した検証環境で購入前に検証できるプログラムだ。DGX B200もラインアップに加えられており、投資判断前の技術検証に有用なサービスとなっている(注11)。

 マクニカはフィジカルAIの実装支援にも注力している。工場内の自律走行搬送ロボット(AMR)やアームロボットに対し、ロボット開発のためのシミュレーションツール「NVIDIA Isaac Sim」を活用して、仮想空間で学習させたモデルを現実のロボットに適用する「Sim-to-Real」の支援も提供している。これにより、現場での研修時間の短縮、ライン変更への柔軟な対応が実現可能だ。

まとめ

 2026年、AIインフラの選定は企業の競争力を左右する経営課題となった。NVIDIAと提携する国内ベンダーの台頭は、選択肢を広げると同時に、選定の難易度を高めている。IT部門のリーダーが打つべき手は以下の3点に集約される。

「全部入り」ではなく「適材適所」のハイブリッド戦略

 全てのAIワークロードを単一のクラウドサービスやオンプレミスに集約するのはリスクがある。ベンダーロックインを回避するためにも、複数の基盤を使い分けるハイブリッド戦略が推奨される。

「電力」と「納期」を考慮した調達計画

 Blackwell世代のGPUは、性能と引き換えに消費電力が増大する傾向にある。自社データセンターに導入する場合、受電設備や冷却能力がボトルネックになる可能性がある。自社のニーズに沿ったキャパシティープランニングを実施するだけでなく、ベンダーとのパイプを持っておくことが重要だ。

「検証」への投資を惜しまない

 AI技術の進化は速く、カタログスペックだけでは性能を判断しにくい。ベンダーが提供する検証環境を積極的に活用し、自社のデータとワークロードでPoCを実施するのも一考だ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る