AI用プロセッサは用途によって実装方法が変わる。AlibabaがFPGAで開発したディープラーニングプロセッサは、畳み込みをサポートしており主に画像関係で威力を発揮するだろう。
近年、人工知能(AI)のタスクの速度を上げる専用チップの利用が流行している。ニューラルプロセッシングユニットに搭載されるHuaweiのSoC(System on a Chip)「Kirin 970」からIoTデバイスで機械学習のタスクを実行するGoogleの新しい「Edge TPU」まで、その例は多岐にわたる。
だが、各チップの設計は一様ではない。Edge TPUはAIの推論を実行するために設計された専用のASIC(Application-Specific Integrated Circuit)プロセッサだ。GPU(グラフィックプロセッシングユニット)もASICの一種だが、こちらは大量の並列処理を用いて行列乗算を行うAIモデルのトレーニングに適している。
また、FPGA(Field-Programmable Gate Array)もある。これはさまざまなユースケース向けにプログラミング可能だが、一般的にASICよりも能力が劣る。
選ぶべきチップはAIワークロードによって決まる。画像認識や画像分析は一般的に負荷が高く、サービス品質の要件が厳しい。そのため低遅延と高パフォーマンスの要件を同時に満たしてそのバランスを保つのはGPUでは難しいというのがAlibabaの考えだ。
そこでAlibabaは、超低遅延で高パフォーマンスのディープラーニングプロセッサ(DLP)をFPGAで開発した。
Alibabaによると、同社のDLPはスパースな畳み込みと低精度のデータコンピューティングを同時にサポートでき、柔軟性とユーザーエクスペリエンスの要件を満たすためにカスタマイズしたISA(命令セットアーキテクチャ)を定義したという。
ResNet-18による遅延テストの結果では、AlibabaのDLPの遅延はわずか0.174ミリ秒であることが示された。このResNet-18とは、畳み込みニューラルネットワークアーキテクチャだ。
ではAlibabaの考え方を詳しく見てみよう。
DLPは機能に基づいて分類される4種類のモジュールを備える。
続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。
記事閲読行動というインテントデータの活用 スマートニュースのデータクリーンルームでできること
電通と電通デジタルはスマートニュースと共同でデータクリーンルーム「SmartNews Ads Dat...
ファイザーのコンテンツサプライチェーン変革 “コロナ禍で世界を救った”経験はどう生かされたのか?
新型コロナウイルスワクチンをいち早く完成させた製薬会社は、コンテンツサプライチェー...
企業の生成AI活用 なぜ日本は米国に追い抜かれたのか?
PwC Japanグループは日米両国で実施した「生成AIに関する実態調査」を基に、日本企業と米...