NVIDIAとAMDはデータセンター向けGPU製品で競争している。本稿はまず、NVIDIAのビデオカード製品を紹介する。ビジネス要件にどちらが適しているのか検討してみよう。
NVIDIAとAMD(Advanced Micro Devices)は、共にGPU(グラフィックスプロセッシングユニット)関連の製品群に重点的に投資している。NVIDIAはビデオカード(GPU搭載の拡張ボード)の新しいアーキテクチャ「NVIDIA Ampere」(以下、Ampere)を、AMDはビデオカードの新製品「AMD Instinct MI100 Accelerator」を投入した。両社はまたしてもGPU市場の覇権を巡る戦いを繰り広げている。
GPUはもともと、要件の厳しいグラフィックス処理の高速化に特化したアクセラレーターとして開発された。その後は汎用(はんよう)の計算処理にも使用されるようになり、機械学習モデルのトレーニングや、HPC(ハイパフォーマンスコンピューティング)などの分野で広く利用されている。
データセンターのデータ処理を高速化したい場合にNVIDIAとAMDのGPU製品はどちらが適するのか、両社の製品を比較してみよう。
NVIDIAのGPUはデータセンターの幅広い用途に使われている。機械学習モデルのトレーニングや機械学習モデルの運用はその一例だ。スーパーコンピュータによる金融市場のモデリングや異常気象予測などのシミュレーションも高速化できる。データベースベンダーのOmniSciはNVIDIAのGPUを使い、処理を高速化したデータベース、レンダリングエンジン、データの視覚化ツールなどを備える解析ツールを提供している。従来よりはるかに高速に分析結果を得ることが可能だ。
従来の「Volta」や「Turing」に代わる新しいアーキテクチャとしてAmpereを採用したのが、NVIDIAの新しいビデオカード「NVIDIA A100 Tensor Core GPU」(以下、A100)だ。A100は108個の「ストリーミングマルチプロセッサ」(SM:演算ユニットの集合体)を搭載する。1つのSMは、第3世代の行列演算ユニット「Tensor Core」4個、FP32(単精度浮動小数点)の演算ユニット「CUDA Core」64個などで構成される。Tensor Coreは4行4列の行列の乗算を1サイクルで実行する特殊な処理ユニットであり、機械学習の計算処理を大幅に高速化できる。Tensor Coreは、AI(人工知能)技術やHPCのアプリケーションに特有の、スパース性(重要なデータがわずかしか含まれていないこと)を前提にして処理を高速化する機能も備える。
A100の中核であるGPU「GA100」は、メモリ規格「HBM2」(HBM:High Bandwidth Memory)のメモリモジュールを6個、バス幅512bitのHBMコントローラー12個を搭載する。発売当初のA100は、メモリ容量40GB、メモリ帯域幅(データ転送速度)1555GB/秒だった。2020年11月にNVIDIAが発表した新バージョンは、メモリ容量が80GB、メモリ帯域幅が2TB/秒に増加した。
NVIDIAは開発者をサポートする各種ツールも提供している。開発ツール群「CUDA Toolkit」には、CUDA用のライブラリ、コンパイラ、ランタイムなどが含まれている。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
TikTok売却義務化に合憲判決 これからのシナリオを左右しそうなトランプ氏と「あの人」の意向
米連邦控訴裁判所は、TikTokが米政府による強制売却法案の無効を求めるTikTokの申し立て...
「TikTok禁止」は結局、誰得? どうするトランプ氏――2025年のSNS大予測(TikTok編)
米国での存続を巡る議論が続く一方で、アプリ内ショッピングやAI機能の拡大など、TikTok...
ネットの口コミを参考に8割超が商品を購入 最も参考にした口コミの掲載先は?
ホットリンクは、口コミ投稿の経験や購買への影響を調査した結果を発表した。