検索
特集/連載

なぜMetaは「脱GPU依存」を目指すのか? Armを選んだ狙いとは独自チップを開発する背景は

MetaがGPU依存からの脱却を目指す背景には何があるのか。Armとの協力を通じてどのような次世代AIインフラの実現を目指しているのか。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | ARM | GPU


 英国の経済紙『Financial Times』が報じたところによると、半導体設計企業ArmはMeta Platforms(以下、Meta)向けに独自プロセッサの開発を進める計画だ。AI(人工知能)関連の事業を強化するMetaはGPU(グラフィックス処理ユニット)を大量に使用していると考えられるが、GPU依存からの脱却を目指す背景には何があるのか。

なぜMetaは「脱GPU依存」を目指すのか?

 AI関連タスクを高速に処理する必要がある企業は、大量のGPUを使用する。しかし、GPUはそのコストの高さと電力消費の大きさが課題だ。

 Metaは、「Facebook」「Instagram」「WhatsApp」など、主力のソーシャルネットワークキングサービス(SNS)事業全体にわたる戦略的技術の中心にAI技術を位置付けている。同社のCEOマーク・ザッカーバーグ氏は、MetaのAIを「あらゆる人が使うAI」とする方針を示しており、決算説明会では「2025年、10億人以上の人々が、高度な知能を持ちパーソナライズされたAIアシスタントにアクセスできるようになる」と話している。

 大規模ユーザー向けのAIインフラ拡張を進めるMetaは、GPUベースのAI処理から脱却し、同社のデータセンターやアプリケーションに最適化されたカスタムチップへの移行を計画している。

 Metaの最高財務責任者(CFO)スーザン・リー氏は決算説明会で、「市販のチップでは最適化が難しいアプリケーション向けに、独自のカスタムチップを開発することに投資をしている」と言及。2023年、独自チップ「Meta Training and Inference Accelerator」(MTIA)の開発に着手した。

 2024年前半から、Metaは同社SNSサービスのランキングおよびレコメンデーションの推論処理にMTIAを活用しはじめた。「2025年にかけて、MTIAの導入をさらに拡大して処理能力を強化するとともに、耐用年数を超えた一部のGPUベースのサーバを置き換えていく計画だ」とリー氏は説明する。2025年以降は、MTIAをAIモデルの基盤となるトレーニング処理の一部に適用し、将来的には生成AIのユースケースにも活用する計画を明らかにしている。

ARMとの提携で目指す「次世代AIインフラ」の姿

 MTIAの導入において、Metaは「効率性」を重要な要素として掲げてきた。この効率性は「FLOPS/W」(ワット当たりのコンピュータの処理速度)という指標を用いて測定され、総所有コスト(TCO)の最適化に直結する。MTIAの消費電力は約35Wとされているが、単体で動作するのではなく、アーキテクチャはCPU(中央処理装置)、メモリ、接続用チップと連携して動作する。そのためシステム全体の最適化も求められる。

 第1世代のMTIA「MTIA 1」には、特定用途向けに設計された集積回路ASIC(Application Specific Integrated Circuit:アプリケーション特化型集積回路)が採用されていた。MetaとArmの提携により、より汎用(はんよう)性の高いArmプロセッサをベースとした次世代チップへの移行が進む可能性がある。

 昨今、Armは「電力効率の高いAI処理を提供できる企業」としての地位を確立しつつある。これまでにはNVIDIAと提携し、同社のGPU向けに省電力AI技術を提供してきた。

 2025年1月に開催された電子機器の年次イベント「Consumer Electronics Show」(CES)では、NVIDIAがArmベースのチップ「GB10 Grace Blackwell Superchip」を発表。ArmプロセッサとNVIDIAの「Blackwell」アクセラレーターを組み合わせることで、AI関連タスクの処理性能を高める設計となっている。1 P(ペタ)FLOPSの演算性能を実現し、AIモデルのプロトタイピング、ファインチューニング(独自の追加トレーニング)、大規模運用向けに最適化されている。

 半導体業界では、プロセッサ、メモリ、通信モジュールなどのコンピュータ構成要素を1つのチップに統合するSoC(System on a Chip)の採用が進んでいる。GB10 Grace Blackwell Superchipもその一例だ。MetaがMTIAの開発を進める背景には、AI処理の効率化とGPU依存からの脱却という狙いがある。そのため、ArmのCPUを搭載した効率的なSoCアーキテクチャへの移行は自然な流れだと考えられる。

 SoCは、チップ製造の観点で見ると設計がより複雑になるものの、量産時のスケールメリットが得られる。複数の外部コンポーネントを1つのパッケージに統合できるため、システム開発者にとってコスト効率の高い選択肢となる。

 Metaのリー氏は、「GPUサーバの置き換え」に言及するとともに、「MTIAの目標はMetaのAIインフラの総所有コスト(TCO)を削減すること」だと強調した。これらの方針は、報道されているArmとの提携とも合致する。この提携が実現すれば、MetaはAIインフラの大規模展開をより低コストで進めることが可能となり、GPUへの依存を減らすことができると考えられる。

Computer Weekly発 世界に学ぶIT導入・活用術

米国Informa TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る