2021年01月20日 05時00分 公開
特集/連載

NVIDIA「GPUDirect Storage」にIntel「Optane」――CPUを補う高速化技術AI時代のストレージを支える技術【中編】

大容量データを扱う用途が広がってきたことで、コンピューティングの主役だったCPUだけでは対処できなくなりつつある。どのような新たな技術が役立つのか。GPUやメモリの観点で注目すべき点は。

[Carol Sliwa,TechTarget]

 長年にわたってコンピューティングの主要な役割をCPUが担ってきたが、GPU(グラフィックス処理プロセッサ)の役割も拡大してきた。「GPUが登場した当初の用途はグラフィックス処理だったが、一度に複数の処理を実行する『並列処理』の能力は、機械学習などAI(人工知能)技術の活用やビッグデータ分析用としても理想的だ」。NVIDIAのストレージ技術分野のバイスプレジデントを務めるロブ・デービス氏はこう語る。

 デービス氏によれば、コンピューティングを担うCPU、GPU、DPU(データ処理プロセッサ)の主な役割は下記の通りだ。

  • CPU:汎用(はんよう)コンピューティング
  • GPU:高負荷の処理をCPUからオフロードして処理する「アクセラレーテッドコンピューティング」
  • DPU:CPUとGPUの間でデータを安全かつ高速に移動させるネットワーク処理

データ処理を高速化するNVIDIAの「GPUDirect Storage」と「Intel Optane」

 NVIDIAの「GPUDirect Storage」は、GPUとストレージを直接接続する技術だ。メモリ同士で直接データ転送をする技術「RDMA」(Remote Direct Memory Access)を使い、CPUを介することなくGPUにデータを直接移動させることで処理を高速化できるとデービス氏は説明する。NVIDIAは現時点ではGPUDirect Storageのβ版を提供しており、一般提供に向けて関係各社との協力を進めている。

 大容量のデータを扱うアプリケーションの処理高速化を目的として、IntelはMicron Technologyと共同で不揮発性メモリ技術「3D XPoint」を開発した。揮発性で高速処理が可能なDRAM(Dynamic Random Access Memory)と、不揮発性だが処理性能ではDRAMに劣るNAND型フラッシュメモリの間隙(かんげき)を埋めるメモリ技術だ。Intelは3D XPointを採用した製品を「Intel Optane」のブランドで提供している。Optaneシリーズとしてフラッシュストレージを2017年に、フォームファクター(形状や大きさの仕様)が「DIMM」(Dual In-line Memory Module)準拠のメモリモジュール(写真)を2019年に出荷開始した。

画像 写真 Optaneシリーズのメモリモジュール《クリックで拡大》

 調査会社Objective Analysisのディレクター兼チーフアナリスト、ジム・ハンディ氏は「Oracleのデータベースサーバ専用機はOptaneを効果的に活用している」と語る。ハンディ氏によると、Intelのプロセッサ「Intel Xeon」とOptaneのメモリモジュールを組み合わせることで、大幅に処理を高速化できる。

 IntelはOptaneの事業に非常に力を入れている。年間数十億ドルも投資しており、今後数年以内に100億ドル以上の資金を調達する見込みだとハンディ氏は説明する。「Optaneは他の新興メモリ技術を引き離すだろう」(同氏)

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news035.jpg

ファイザーCEOが語る企業文化 コロナ禍から世界を救う製薬会社が重視する4つのコアバリュー
新型コロナウイルスワクチンの開発で一躍脚光を浴びることとなったファイザー。不可能を...

news012.jpg

「マーケティングオートメーション」 売れ筋TOP10(2021年5月)
2021年5月も国内マーケティングオートメーション(MA)市場は順調に成長しています。「Sa...

news035.jpg

日本のエンターテインメント&メディアビジネスが「サブスク」の時代に生きる道とは?
メディアの時代からコンテンツの時代へ。コロナ後のエンターテインメント&メディア業界...