2019年06月12日 08時00分 公開
特集/連載

機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦XeonがTensorFlowやPyTorchに最適化

機械学習の(特に学習の)速度を向上させるため、各社はさまざまなカスタムハードウェアの開発と利用を進めている。出遅れ感のあるIntelは、この市場にx86 CPUで参戦しようとしている。

[Cliff Saran,Computer Weekly]

 一般に、究極のパフォーマンスを発揮するAIアプリケーションを必要とする企業が利用できる唯一の選択肢は、カスタムハードウェアだといわれている。GPU(Graphics Processing Unit)をセールスポイントとして大きく躍進しているNVIDIAのような企業もある。同社は熱心なゲーマーが2D/3Dレンダリングに利用するGPUを機械学習の速度向上に活用している。

 Intelはこの競争に加わるのが遅れた。だがFPGA(Field-Programmable Gate Array)から機械学習向けに最適化したプロセッサコアに至る一連の技術の構築を加速している。

 究極のパフォーマンスを得るため、カスタムASIC(Application Specific Integrated Circuit)も作られている。カスタムASICは、遅延を最低限に抑えて特定のタスクを実行するよう設計された超小型電子部品だ。

カスタムアプローチ:Tensor Processing Unit

 Googleはカスタムアプローチを長年リードし続けている。自社開発したカスタムチップ「Tensor Processing Unit」(TPU)を利用して、オープンソースのディープラーニングライブラリ「TensorFlow」の処理速度を上げる基盤としている。

 同社のTPUは、2018年12月に行われた機械学習ベンチマーク「MLPerf v0.5」の結果でトップに立っている(訳注)。

訳注:2019年5月時点のトップは「Pascal P100」となっている。Pascal GPUアーキテクチャを採用した「NVIDIA Tesla P100」を指すと思われる。

 IBMはASICだけでなく、教師あり機械学習の速度を上げるために量子コンピューティングを適用できるアプリケーション分野の調査を開始している(Computer Weekly日本語版 5月22日号参照)。

 もう一つの選択肢がFPGAだ。FPGAは回路の再プログラミングが可能だ。そのためASICの安価な代替手段になる。Microsoftはクラウドでの機械学習の速度向上を目的とする「Project Brainwave」にFPGAの利用を検討している。

x86 CPUの最適化




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news030.jpg

経営にSDGsを取り入れるために必要な考え方とは? 眞鍋和博氏(北九州市立大学教授)と語る【前編】
企業がSDGsを推進するために何が必要なのか。北九州市立大学の眞鍋和博教授と語り合った。

news022.jpg

「サイト内検索」ツール(有償版) 国内売れ筋TOP10(2021年7月)
サイト内検索(サイトサーチ)ツールは検索窓から自社サイト内のコンテンツを正確に、効...

news139.jpg

SNSの利用時間は77.8分、Instagram利用率は50%超え――Glossom調査
スマートフォンでの情報収集に関する定点調査。スマートフォンの利用時間は順調に増加し...