NVIDIAとAMDはデータセンター向けGPU製品で競争している。本稿はまず、NVIDIAのビデオカード製品を紹介する。ビジネス要件にどちらが適しているのか検討してみよう。
NVIDIAとAMD(Advanced Micro Devices)は、共にGPU(グラフィックスプロセッシングユニット)関連の製品群に重点的に投資している。NVIDIAはビデオカード(GPU搭載の拡張ボード)の新しいアーキテクチャ「NVIDIA Ampere」(以下、Ampere)を、AMDはビデオカードの新製品「AMD Instinct MI100 Accelerator」を投入した。両社はまたしてもGPU市場の覇権を巡る戦いを繰り広げている。
GPUはもともと、要件の厳しいグラフィックス処理の高速化に特化したアクセラレーターとして開発された。その後は汎用(はんよう)の計算処理にも使用されるようになり、機械学習モデルのトレーニングや、HPC(ハイパフォーマンスコンピューティング)などの分野で広く利用されている。
データセンターのデータ処理を高速化したい場合にNVIDIAとAMDのGPU製品はどちらが適するのか、両社の製品を比較してみよう。
NVIDIAのGPUはデータセンターの幅広い用途に使われている。機械学習モデルのトレーニングや機械学習モデルの運用はその一例だ。スーパーコンピュータによる金融市場のモデリングや異常気象予測などのシミュレーションも高速化できる。データベースベンダーのOmniSciはNVIDIAのGPUを使い、処理を高速化したデータベース、レンダリングエンジン、データの視覚化ツールなどを備える解析ツールを提供している。従来よりはるかに高速に分析結果を得ることが可能だ。
従来の「Volta」や「Turing」に代わる新しいアーキテクチャとしてAmpereを採用したのが、NVIDIAの新しいビデオカード「NVIDIA A100 Tensor Core GPU」(以下、A100)だ。A100は108個の「ストリーミングマルチプロセッサ」(SM:演算ユニットの集合体)を搭載する。1つのSMは、第3世代の行列演算ユニット「Tensor Core」4個、FP32(単精度浮動小数点)の演算ユニット「CUDA Core」64個などで構成される。Tensor Coreは4行4列の行列の乗算を1サイクルで実行する特殊な処理ユニットであり、機械学習の計算処理を大幅に高速化できる。Tensor Coreは、AI(人工知能)技術やHPCのアプリケーションに特有の、スパース性(重要なデータがわずかしか含まれていないこと)を前提にして処理を高速化する機能も備える。
A100の中核であるGPU「GA100」は、メモリ規格「HBM2」(HBM:High Bandwidth Memory)のメモリモジュールを6個、バス幅512bitのHBMコントローラー12個を搭載する。発売当初のA100は、メモリ容量40GB、メモリ帯域幅(データ転送速度)1555GB/秒だった。2020年11月にNVIDIAが発表した新バージョンは、メモリ容量が80GB、メモリ帯域幅が2TB/秒に増加した。
NVIDIAは開発者をサポートする各種ツールも提供している。開発ツール群「CUDA Toolkit」には、CUDA用のライブラリ、コンパイラ、ランタイムなどが含まれている。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
AIの進化が加速する「プラットフォームビジネス」とは?
マーケットプレイス構築を支援するMiraklが日本で初のイベントを開催し、新たな成長戦略...
「マーケティングオートメーション」 国内売れ筋TOP10(2024年12月)
今週は、マーケティングオートメーション(MA)ツールの売れ筋TOP10を紹介します。
2024年の消費者購買行動変化 「日本酒」に注目してみると……
2023年と比較して2024年の消費者の購買行動にはどのような変化があったのか。カタリナマ...