機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦XeonがTensorFlowやPyTorchに最適化

機械学習の(特に学習の)速度を向上させるため、各社はさまざまなカスタムハードウェアの開発と利用を進めている。出遅れ感のあるIntelは、この市場にx86 CPUで参戦しようとしている。

2019年06月12日 08時00分 公開
[Cliff SaranComputer Weekly]

 一般に、究極のパフォーマンスを発揮するAIアプリケーションを必要とする企業が利用できる唯一の選択肢は、カスタムハードウェアだといわれている。GPU(Graphics Processing Unit)をセールスポイントとして大きく躍進しているNVIDIAのような企業もある。

 Intelはこの競争に加わるのが遅れた。だがFPGA(Field-Programmable Gate Array)から機械学習向けに最適化したプロセッサコアに至る一連の技術の構築を加速している。

 究極のパフォーマンスを得るため、カスタムASIC(Application Specific Integrated Circuit)も作られている。カスタムASICは、遅延を最低限に抑えて特定のタスクを実行するよう設計された超小型電子部品だ。

カスタムアプローチ:Tensor Processing Unit

 Googleはカスタムアプローチを長年リードし続けている。自社開発したカスタムチップ「Tensor Processing Unit」(TPU)を利用して、オープンソースのディープラーニングライブラリ「TensorFlow」の処理速度を上げる基盤としている。

 同社のTPUは、2018年12月に行われた機械学習ベンチマーク「MLPerf v0.5」の結果でトップに立っている(訳注)。

訳注:本記事日本語訳編集時点(2019年5月)のトップは「Pascal P100」となっている。Pascal GPUアーキテクチャを採用した「NVIDIA Tesla P100」を指すと思われる。

 IBMはASICだけでなく、教師あり機械学習の速度を上げるために量子コンピューティングを適用できるアプリケーション分野の調査を開始している。この調査で、機械学習の速度向上に寄与する量子コンピューティングに適したデータセットを特定する。

 もう一つの選択肢がFPGAだ。FPGAは回路の再プログラミングが可能だ。そのためASICの安価な代替手段になる。Microsoftはクラウドでの機械学習の速度向上を目的とする「Project Brainwave」にFPGAの利用を検討している。

機械学習の中心はGPU

 NVIDIAは、メインストリームの機械学習の速度向上にGPUを利用するという独自の道を切り開いている。金融ブログサイト「Seeking Alpha」に掲載された同社の2019年第4四半期(訳注)の収支報告書によると、同社はディープラーニングに大きく成長するチャンスがあると考えているという。

訳注:Seeking Alphaの原文「NVIDIA Corporation (NVDA) CEO Jen-Hsun Huang on Q4 2019 Results」による。

 NVIDIAの最高財務責任者(CFO)を務めるコレット・クレス氏は、ディープラーニングと推論は同社のデータセンタービジネスの10%にも満たないが、今後市場チャンスは大きく広がると話している。

 ニューラルネットワークは行列演算に大きく依存し、複雑に階層化されたネットワークは効率性と速度の点で極めて高い浮動小数点演算性能と膨大な量の帯域幅を必要とする。NVIDIAは最近のホワイトペーパーでGPUのメリットについて次のように説明している。「GPUには、行列演算向けに最適化された数千のプロセッサコアが搭載され、数十〜数百TFLOPSのパフォーマンスを発揮する。GPUがディープニューラルネットワークベースのAIや機械学習アプリケーション向けのプラットフォームに適しているのは明らかだ」

x86 CPUの最適化

 IntelのCPUは汎用(はんよう)コンピューティング向けに最適化されている。ただし、同社はディープラーニング機能「Intel Deep Learning Boost」を備えた「Xeon」プロセッサを拡大し始めている。Intelによると、このプロセッサは「TensorFlow」「PyTorch」「Caffe」「Apache MXNet」「PaddlePaddle」のようなフレームワークに最適化するように設計されているという。

 Intelは、同社のGPUよりもCPUが選ばれることを望んでいる。CPUの方が既に利用されているものにうまく適合するからだ。例えば、他のプロバイダーに先駆けて医療アプリケーションでのAI活用に取り組む医療技術プロバイダーのSiemens Healthineersは、GPUではなくIntelの技術を中心にAIシステムを構築すると決めている。Intelの主張は、「GPUなどのアクセラレーターはAIワークロード向けに考えられるのが一般的だ。だがシステムコストや運用コストが増え、複雑性が増大し、旧バージョンとの互換性を妨げる可能性がある。Siemens Healthineersが導入したシステムの大半は、既にIntelのCPUに支えられている」というものだ。Siemens Healthineersは、Intel CPUベースの既存のインフラを利用してAI推論ワークロードを実行することを目指している。

 ハードウェアでの開発の重要性が増しているように思える。大手Web企業や主要技術企業は、AIの速度を向上させるハードウェアに多額の投資を行っている。最近マドリードで開催されたカンファレンス「T3CH」で、スイス連邦工科大学チューリッヒ校コンピュータサイエンス学部のSystems Groupに属するグスタボ・アロンソ氏は、AIは高額になるとして、次のように述べている。「大きなモデルのトレーニングでは、モデル一つ当たり数十万ドルに達する可能性がある。専用のハードウェアにアクセスし、それを利用できる能力は競争上の強みになる」

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news083.jpg

FacebookやXなど主要SNSで進む「外部リンク制限」の実態 唯一の例外は?
ソーシャルメディアはかつてWebサイトへの重要な流入経路であった。しかし、最近は各プラ...

news079.jpg

生成AIとAR/VRで失った個性を取り戻す――2025年のSNS大予測(Instagram編)
万能だが特徴のはっきりしない「何でも屋」と化したInstagram。2025年の進化の方向性を予...

news128.jpg

「AIネイティブ世代」の誕生 10代のAI活用度合いは?
博報堂DYホールディングスのHuman-Centered AI Instituteは、AIに対する現状の生活者意識...