検索
特集/連載

Microsoft 新AIチップ「Maia 200」の衝撃――GPU枯渇に悩む情シスを救うかNVIDIAの“言い値”はもう限界?

AI需要の爆発によりGPUの価格高騰と調達難が続く中、Microsoftが発表した独自AIチップ「Maia 200」。これは単なる新製品の発表ではない。NVIDIA依存からの脱却、そして企業のAI運用コストを劇的に左右する「ゲームチェンジャー」となる可能性がある。

Share
Tweet
LINE
Hatena

 Microsoftは2026年1月26日(米国時間)、AI(人工知能)アクセラレーター「Maia 200」を発表した。AIアクセラレーターとは、AI関連処理を高速化するために特別に設計されたハードウェアを指す。Maia 200は電力使用量を抑えながら、高速のAI推論処理を可能にするという。業界アナリストは、Maia 200の登場が「AIインフラにおけるドミノ効果を引き起こす可能性がある」と指摘する。どういうことなのか。

Maia 200が引き起こすドミノ効果

 AI技術の利用が広がっている中、IT業界では「AI推論の高速化」に注目が集まっている。AI推論とは、訓練済みのLLM(大規模言語モデル)をデータセットに適用し、出力を生成するプロセスを指す。つまり、学習した結果の実行だ。そうした中、NVIDIAは次世代AIプロセッサ「Vera Rubin」を発表し、2026年後半の投入を予定している。

 他のAIアクセラレーターとして、Amazon Web Services(AWS)のAI専用チップ「Trainium」シリーズやGoogleの「TPU」(テンソル処理ユニット)もある。Maia 200は性能やコスト効率に関して、これらと比較されることになる。AIアクセラレーターは、一般的なAIモデルを実行するGPU(グラフィックス処理装置)とは異なり、特定のAI処理タスク用に設計されている。

 調査会社Informa Tech(Omdiaの名称で事業展開)のアナリスト、マイク・レオン氏によると、Vera RubinとMaia 200は特徴が異なる。Vera Rubinは、クエリ(問い合わせ)に対し非常に複雑な回答が求められるAI推論向けに設計されている。一方で、Maia 200はMicrosoftのさまざまな製品やサービスに組み込まれるAIアシスタントツール「Microsoft Copilot」をはじめ、クエリに対しそれほど深い推論が必要ではないユースケースを想定していると同氏は述べる。

 MicrosoftはMaia 200を社内でも使用する予定だ。そのため、「MicrosoftがMaia 200の当面の主要なユーザーになる可能性がある」とレオン氏は述べる。Microsoftは自社システム運用のため、NVIDIAから大量のGPUを仕入れているとみられる。同氏によると、MicrosoftがCopilotの大規模な社内ワークロードをMaia 200に移行すれば、NVIDIAのGPUへの需要が減り、Microsoftのユーザー企業を含めた他社にとって、NVIDIAのGPUが購入しやすくなる可能性がある。

 しかし、調査会社Forrester Researchのアナリストを務めるナビーン・チャブラ氏は、NVIDIAのGPUからのMaia 200への移行は簡単ではないと説明する。「両方が必ずしも互換性のあるものではない」(同氏)ため、そのための確認作業が発生する可能性があるという。

 Microsoftが同社クラウドサービス「Azure」のインフラを高額なNVIDIAのGPUからより安価なMaia 200に移行すれば、コスト削減につながり、その結果、Azureのユーザー企業も恩恵を受けると指摘する業界アナリストもいる。

 さらに、MicrosoftがMaia 200の自社利用を通じてコスト削減の成功事例を示せば、他の企業にとってMaia 200を採用する魅力も高まると考えられる。レオン氏は、「ITリーダーが、経済性を重視してMaia 200を選ぶか、NVIDIAのGPUを採用してクラウドサービス間の柔軟性を維持するかにかかる」と語る。

 AIチップ分野におけるNvidiaの支配的地位について、一部の業界専門家の間で懸念が高まっている。Maia 200の登場によって、長期的にNVIDIAの支配が和らげられると考えられる。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る