2019年06月12日 08時00分 公開
特集/連載

XeonがTensorFlowやPyTorchに最適化機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦

機械学習の(特に学習の)速度を向上させるため、各社はさまざまなカスタムハードウェアの開発と利用を進めている。出遅れ感のあるIntelは、この市場にx86 CPUで参戦しようとしている。

[Cliff Saran,Computer Weekly]

 一般に、究極のパフォーマンスを発揮するAIアプリケーションを必要とする企業が利用できる唯一の選択肢は、カスタムハードウェアだといわれている。GPU(Graphics Processing Unit)をセールスポイントとして大きく躍進しているNVIDIAのような企業もある。同社は熱心なゲーマーが2D/3Dレンダリングに利用するGPUを機械学習の速度向上に活用している。

 Intelはこの競争に加わるのが遅れた。だがFPGA(Field-Programmable Gate Array)から機械学習向けに最適化したプロセッサコアに至る一連の技術の構築を加速している。

 究極のパフォーマンスを得るため、カスタムASIC(Application Specific Integrated Circuit)も作られている。カスタムASICは、遅延を最低限に抑えて特定のタスクを実行するよう設計された超小型電子部品だ。

カスタムアプローチ:Tensor Processing Unit

 Googleはカスタムアプローチを長年リードし続けている。自社開発したカスタムチップ「Tensor Processing Unit」(TPU)を利用して、オープンソースのディープラーニングライブラリ「TensorFlow」の処理速度を上げる基盤としている。

 同社のTPUは、2018年12月に行われた機械学習ベンチマーク「MLPerf v0.5」の結果でトップに立っている(訳注)。

訳注:2019年5月時点のトップは「Pascal P100」となっている。Pascal GPUアーキテクチャを採用した「NVIDIA Tesla P100」を指すと思われる。

 IBMはASICだけでなく、教師あり機械学習の速度を上げるために量子コンピューティングを適用できるアプリケーション分野の調査を開始している(Computer Weekly日本語版 5月22日号参照)。

 もう一つの選択肢がFPGAだ。FPGAは回路の再プログラミングが可能だ。そのためASICの安価な代替手段になる。Microsoftはクラウドでの機械学習の速度向上を目的とする「Project Brainwave」にFPGAの利用を検討している。

x86 CPUの最適化




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news091.jpg

インターネット広告に関するユーザー意識 8割のユーザーが情報活用に不安――JIAA調査
ユーザーのインターネットメディア・広告への意識、情報取得活用への意識、業界が取り組...

news098.jpg

BeautyTech関連アプリは浸透しているのか?――アイスタイル調べ
BeutyTech関連アプリがこの1年で浸透し始めたことが明らかになりました。

news094.jpg

日本国内に住む中国人女性のSNS利用実態――アライドアーキテクツ調査
在日中国人女性464人に聞いたSNSの利用状況と、SNSを通じて行われる情報提供の実態につい...