GPUによるデータ処理を高速化するNVIDIAの「GPUDirect Storage」は、大量のデータを扱う用途で活用が進む可能性がある。その可能性を考える上では、ストレージベンダーの取り組みが鍵になる。
GPU(グラフィック処理ユニット)のデータ処理を高速化するNVIDIAのソフトウェア「Magnum IO GPUDirect Storage」(以下、GPUDirect Storage)は、ストレージベンダーが協力することで、AI(人工知能)技術分野を中心に広く活用が進む可能性がある。GPUDirect Storageは、GPUがNVMe接続のストレージに直接アクセスすることでデータ処理を高速にする仕組みだ。
IBMは同社製ストレージと、NVIDIAのAI技術用コンピュータ「NVIDIA DGX」シリーズを組み合わせて利用するレファレンスアーキテクチャを公表した。同様にIBMは、NVIDIAの設計によるスーパーコンピュータ「NVIDIA DGX SuperPOD」と同社製ストレージ「IBM Elastic Storage System 3200」(ESS 3200)を組み合わせて利用する設計についても2021年中に用意すると公表している。
1ノードのESS 3200と2ノードの「NVIDIA DGX A100」を組み合わせる構成において、GPUDirect Storageを使用する場合は使用しない場合に比べ、スループット(データ転送速度)を2倍近くに引き上げることができたとIBMは説明する。「これはNVIDIAにとってはGPUがより大量のデータを扱えるようになったことを示す。IBMにとっては、大規模なデータを扱う際にボトルネックがストレージで発生しないように考慮する必要があることを示す結果だ」。IBMでプログラムディレクターを務めるダグラス・オフレアティ氏はこう評価する。
オフレアティ氏によると、NVIDIAのGPUDirect Storageには下記のような企業が関心を持つ可能性が高い。
新興のストレージベンダーVAST Dataも、自社のストレージ製品でGPUDirect Storageを利用可能にしている。同社の共同創業者でCMO(最高マーケティング責任者)を務めるジェフ・デンワース氏によると、同社には下記のような組織からの注文が既に入っている。
VAST Dataは従来のNAS(ネットワーク接続ストレージ)ではなくGPUDirect Storageを利用することで、こうした用途において飛躍的に高速にデータを供給することが可能になった。「GPUDirect Storageによって当社の関わるプロジェクトが増えたのはうれしい驚きだ」とデンワース氏は言う。AI技術を使う一部の用途だけではなく、GPUの用途全般で、大量のデータを高速に供給する方法として顧客企業がGPUDirect Storageに関心を寄せている。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
生活者の生成AI利用動向 10代後半はすでに5割近くが経験――リクルート調査
テキスト型生成AIサービスの利用経験者の割合は若い年代ほど高く、特に10代後半はすでに5...
2023年のSNS炎上総数は189件、炎上元の媒体1位は「X」――コムニコ「炎上レポート」
コムニコが「炎上レポート」2023年版を公開しました。
今度の「TikTok禁止」はこれまでとどう違う?
米国ではまたしてもTikTok禁止措置が議論されている。これまでは結局実現に至らなかった...