GPUによるデータ処理を高速化するNVIDIAの「GPUDirect Storage」は、大量のデータを扱う用途で活用が進む可能性がある。その可能性を考える上では、ストレージベンダーの取り組みが鍵になる。
GPU(グラフィック処理ユニット)のデータ処理を高速化するNVIDIAのソフトウェア「Magnum IO GPUDirect Storage」(以下、GPUDirect Storage)は、ストレージベンダーが協力することで、AI(人工知能)技術分野を中心に広く活用が進む可能性がある。GPUDirect Storageは、GPUがNVMe接続のストレージに直接アクセスすることでデータ処理を高速にする仕組みだ。
IBMは同社製ストレージと、NVIDIAのAI技術用コンピュータ「NVIDIA DGX」シリーズを組み合わせて利用するレファレンスアーキテクチャを公表した。同様にIBMは、NVIDIAの設計によるスーパーコンピュータ「NVIDIA DGX SuperPOD」と同社製ストレージ「IBM Elastic Storage System 3200」(ESS 3200)を組み合わせて利用する設計についても2021年中に用意すると公表している。
1ノードのESS 3200と2ノードの「NVIDIA DGX A100」を組み合わせる構成において、GPUDirect Storageを使用する場合は使用しない場合に比べ、スループット(データ転送速度)を2倍近くに引き上げることができたとIBMは説明する。「これはNVIDIAにとってはGPUがより大量のデータを扱えるようになったことを示す。IBMにとっては、大規模なデータを扱う際にボトルネックがストレージで発生しないように考慮する必要があることを示す結果だ」。IBMでプログラムディレクターを務めるダグラス・オフレアティ氏はこう評価する。
オフレアティ氏によると、NVIDIAのGPUDirect Storageには下記のような企業が関心を持つ可能性が高い。
新興のストレージベンダーVAST Dataも、自社のストレージ製品でGPUDirect Storageを利用可能にしている。同社の共同創業者でCMO(最高マーケティング責任者)を務めるジェフ・デンワース氏によると、同社には下記のような組織からの注文が既に入っている。
VAST Dataは従来のNAS(ネットワーク接続ストレージ)ではなくGPUDirect Storageを利用することで、こうした用途において飛躍的に高速にデータを供給することが可能になった。「GPUDirect Storageによって当社の関わるプロジェクトが増えたのはうれしい驚きだ」とデンワース氏は言う。AI技術を使う一部の用途だけではなく、GPUの用途全般で、大量のデータを高速に供給する方法として顧客企業がGPUDirect Storageに関心を寄せている。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
ブランドリスクの要因は「トランプ大統領」 どうするCMO――2025年のマーケティング予測10選【後編】
2025年はCMOの役割と課題が大きく変化すると予想される。具体的には何が起こるのか。「Ma...
AIはGoogleの地位を揺るがしているのか? Domoが年次レポートを公開
Domoの年次レポート「Data Never Sleeps」は、インターネット上で1分間ごとに起きている...
3500ブランドの市場・生活者データでマーケターのアイデア発想を支援 マクロミル「Coreka」でできること
マクロミルが創業25年で培ったリサーチや分析ノウハウを結集し、アイディエーションプラ...