検索
特集/連載

NVIDIAのビデオカード「A100 Tensor Core GPU」は何がすごい? AI向け機能もNVIDIAとAMDの「GPU」製品を比較【前編】

NVIDIAとAMDはデータセンター向けGPU製品で競争している。本稿はまず、NVIDIAのビデオカード製品を紹介する。ビジネス要件にどちらが適しているのか検討してみよう。

Share
Tweet
LINE
Hatena

関連キーワード

AMD | HPC | データセンター


 NVIDIAとAMD(Advanced Micro Devices)は、共にGPU(グラフィックスプロセッシングユニット)関連の製品群に重点的に投資している。NVIDIAはビデオカード(GPU搭載の拡張ボード)の新しいアーキテクチャ「NVIDIA Ampere」(以下、Ampere)を、AMDはビデオカードの新製品「AMD Instinct MI100 Accelerator」を投入した。両社はまたしてもGPU市場の覇権を巡る戦いを繰り広げている。

 GPUはもともと、要件の厳しいグラフィックス処理の高速化に特化したアクセラレーターとして開発された。その後は汎用(はんよう)の計算処理にも使用されるようになり、機械学習モデルのトレーニングや、HPC(ハイパフォーマンスコンピューティング)などの分野で広く利用されている。

 データセンターのデータ処理を高速化したい場合にNVIDIAとAMDのGPU製品はどちらが適するのか、両社の製品を比較してみよう。

NVIDIAの「A100 Tensor Core GPU」はこれがすごい

 NVIDIAのGPUはデータセンターの幅広い用途に使われている。機械学習モデルのトレーニングや機械学習モデルの運用はその一例だ。スーパーコンピュータによる金融市場のモデリングや異常気象予測などのシミュレーションも高速化できる。データベースベンダーのOmniSciはNVIDIAのGPUを使い、処理を高速化したデータベース、レンダリングエンジン、データの視覚化ツールなどを備える解析ツールを提供している。従来よりはるかに高速に分析結果を得ることが可能だ。

 従来の「Volta」や「Turing」に代わる新しいアーキテクチャとしてAmpereを採用したのが、NVIDIAの新しいビデオカード「NVIDIA A100 Tensor Core GPU」(以下、A100)だ。A100は108個の「ストリーミングマルチプロセッサ」(SM:演算ユニットの集合体)を搭載する。1つのSMは、第3世代の行列演算ユニット「Tensor Core」4個、FP32(単精度浮動小数点)の演算ユニット「CUDA Core」64個などで構成される。Tensor Coreは4行4列の行列の乗算を1サイクルで実行する特殊な処理ユニットであり、機械学習の計算処理を大幅に高速化できる。Tensor Coreは、AI(人工知能)技術やHPCのアプリケーションに特有の、スパース性(重要なデータがわずかしか含まれていないこと)を前提にして処理を高速化する機能も備える。

 A100の中核であるGPU「GA100」は、メモリ規格「HBM2」(HBM:High Bandwidth Memory)のメモリモジュールを6個、バス幅512bitのHBMコントローラー12個を搭載する。発売当初のA100は、メモリ容量40GB、メモリ帯域幅(データ転送速度)1555GB/秒だった。2020年11月にNVIDIAが発表した新バージョンは、メモリ容量が80GB、メモリ帯域幅が2TB/秒に増加した。

 NVIDIAは開発者をサポートする各種ツールも提供している。開発ツール群「CUDA Toolkit」には、CUDA用のライブラリ、コンパイラ、ランタイムなどが含まれている。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る