「GPUの高速処理」を念頭に NVIDIAとの協業でストレージ8社が手掛けるのは?AI市場で存在感を示すストレージベンダー

NVIDIAはAI技術のデータ処理に適したGPUや開発ツールの提供に力を入れる。同社と連携するストレージベンダー8社の取り組みをまとめた。

2024年06月07日 08時00分 公開
[Antony AdsheadTechTarget]

関連キーワード

人工知能 | GPU | Dell(デル) | HPC | ストレージ


 人工知能(AI)技術は、ストレージベンダーの製品に新たな波をもたらしている。半導体ベンダーのNVIDIAが2024年3月中旬に開催した年次イベント「GPU Technology Conference 2024」(GTC 2024)には、NVIDIAとの協力に前向きな複数のストレージベンダーが登壇した。

 イベントに参加したストレージベンダー各社の取り組みの中心となっていたのは、AIアプリケーションに使われる大量のデータを、GPU(グラフィックス処理装置)で高速に処理できるようにするために、入出力(I/O)のボトルネックを抑えることだ。ストレージベンダー8社が発表した内容をまとめた。

NVIDIAと協力する主要8社のストレージとは

 ストレージベンダー各社がAIアプリケーション向けの製品やサービスを提供するために使用するツールとしては、例えば以下がある。

  • 生成AI開発サービスの「NVIDIA NeMo」
  • マイクロサービスを提供する「NVIDIA NIM」
  • AIアプリケーション向けレファレンスアーキテクチャの「DGX BasePOD」

 NVIDIAは、生成AIで生成したテキストに外部情報の検索結果を組み合わせるRAG(Retrieval Augmented Generation:検索拡張生成)技術との開発にも力を入れる。RAGは、生成AIモデルが事実と異なる内容を出力する幻覚(ハルシネーション)を抑えるために利用できる。

 GTC 2024でNVIDIAのCEOジェンセン・ファン氏がメッセージの中心として伝えたのは、コンピュータ業界の変化だ。同氏はコンピュータ業界がAIアプリケーションを軸として変化し、AIアプリケーションの役割はデータの取得ではなくデータの生成に変化しつつあると説明する。新しいAIモデルを開発するには学習が必要なため、大量の学習データが必要になる。

 NVIDIAは、自社のGPUをはじめとしたプロセッサが、より大規模なシステムで利用可能になるように開発を進めている。同社の新しいGPU「Blackwell」は2080億個のトランジスタを装備し、これまでのプロセッサよりも低い消費電力で1兆パラメーターの大規模言語モデル(LLM)を処理する能力を備える。

 BlackwellをはじめとしたNVIDIAのGPUは、同社の「NVIDIA OVX」や「NVIDIA DGX」などのAIアプリケーション向けサーバシステム、DGX BasePODといったレファレンスアーキテクチャに組み込まれている。

 ここからはGTC 2024でストレージベンダー各社が発表した内容を幾つか紹介する。

Cohesity

 バックアップアプライアンスを手掛けるCohesityは、同社が開発するAIアシスタント「Gaia」にNVIDIA NIMを利用して、NVIDIAのAI開発サービス群「NVIDIA AI Enterprise」を組み込むことを発表した。Cohesity Gaiaはユーザー企業が保有するバックアップデータやアーカイブデータをAIモデルの学習データとして利用可能にすることで、生成AIアプリケーションの開発に役立てられるようにする。CohesityはNVIDIAから資金供与を受けることも発表した。

DataDirect Networks(DDN)

 ハイパフォーマンスコンピューティング(HPC)向けストレージを提供するDataDirect Networks(DDN)はストレージシステムの「AI400X2 Turbo」を発表した。AI400X2 TurboはAIアプリケーションへの利用を主な想定用途にしている。同製品は同社の従来のモデルである「AI400X2」と同じフォームファクタだ。AI400X2 Turboはメモリを増設してネットワーク機能を強化することで、AI400X2の最大帯域幅である90GBpsに対して最大帯域幅120GBpsを実現している。

 DDNはGPU-as-a-serviceを提供する大手ベンダーの一つだ。同社は自社が持つGPU技術を利用して、HPCストレージベンダーからAIアプリケーション向けストレージの主要ベンダーへの転換を図っている。

Dell Technologies

  Dell Technologiesが発表したのは、AIアプリケーション向けインフラ製品・サービス群の「Dell AI Factory」だ。Dell AI Factoryには、同社のデスクトップPCやノートPC、GPUサーバの「PowerEdge XE9680」、オールフラッシュストレージの「PowerScale F710」ストレージサーバなどが含まれる。これらのハードウェアはNVIDIA製のGPUを搭載しており、NVIDIA AI Enterpriseが利用可能だ。PowerEdge XE9680はNVIDIAのAIアプリケーション向けイーサネットネットワークシステムの「NVIDIA BlueField-3 SuperNICs」が利用できる。

 Dell AI Factoryの製品群は、同社のサーバやストレージなどのハードウェアを従量制課金で提供するサービス「Dell APEX」で利用できる。

Hewlett Packard Enterprise(HPE)

 Hewlett Packard Enterprise(HPE)は主に以下の内容を発表した。

  • 生成AI向けの新しいスーパーコンピューティングシステム
  • NVIDIA NeMoのマイクロサービスを使用したRAGのレファレンスアーキテクチャ
  • NVIDIA NIMを使用して開発したAIモデル開発サービス「HPE Machine Learning Inference Software」のプレビュー版
  • NVIDIAのGPUチップであるBlackwellを搭載した将来の製品計画

 HPEの新しいエンタープライズ向け生成AIスーパーコンピューティングシステムは、AIモデルのチューニングと推論に重点を置いている。このシステムは同社のサーバ「HPE ProLiant DL380a Gen11」とNVIDIAのGPU、NVIDIAのDPU(データ処理装置)である「NVIDIA BlueField-3 DPU」を中心に事前構築され、HPEの機械学習と分析のためのソフトウェアが搭載される。

日立ヴァンタラ(Hitachi Vantara)

 日立ヴァンタラが発表したのはAI関連製品・サービス群の「Hitachi iQ」だ。Hitachi iQは、同社のストレージ製品とNVIDIAのDGX GPUまたはそのOEM版の「HGX GPU」を組み合わせて、ユーザーとなる各業界の特定の用途に特化したAIシステムを提供する。Hitachi iQのストレージ製品群はNVIDIA BasePODの認証を受け、NVIDIA AI Enterpriseソフトウェアを搭載する。

 日立ヴァンタラは分散ファイルシステム「Hitachi Content Software for File」(HCFS)の最新版を利用したAIアプリケーション向けの高速処理が可能なストレージも提供する。

NetApp

 NetAppは、同社のストレージOS「NetApp ONTAP」で、NVIDIAのマイクロサービス「NVIDIA NeMo Retriever」を利用可能にする。NVIDIA NeMo Retrieverは、生成AIアプリケーションにRAG機能を組み込み、正確な応答ができるようにするサービスだ。同サービスを利用することで新しくリポジトリを作成する必要なく、生成AIモデルから企業の非構造化データへのアクセスを可能にする。

Pure Storage

 Pure StorageはRAGのためのパイプラインを作成したことを発表した。このパイプラインは、NVIDIA NeMoのマイクロサービスをNVIDIA製GPUとPure Storageのストレージと連携させて使用する。自社が所有するデータをAIモデルの学習に利用するユーザー企業はこのパイプラインを利用することで、AIモデルの開発にかかる時間の短縮や最新データの利用、AIモデルの再トレーニングの頻度の低減が可能になる。

 業種を特化するRAGも発表した。現時点でターゲットにするのは金融サービスのみだが、ヘルスケアや公共部門向けのRAGの開発も予定している。

 Pure Storageは、同社のストレージがNVIDIAによって、NVIDIA OVXに準拠していると認定を受けたことも発表した。

Weka

 NAS(ネットワーク接続ストレージ)ベンダーのWekaIOは、NVIDIAのAIアプリケーョン向けHPCのレファレンスアーキテクチャ「DGX SuperPod」のインフラとして、動作検証済みのハードウェアアプライアンス「WEKApod」を発表した。

 WEKApodは汎用(はんよう)インタフェース規格「PCI Express(PCIe) 5.0」を使用し、8ノードで1PBのクラスタで、1830万IOPS(1秒当たりの入出力操作)を実現する。

 WekaはNvidia DGX BasePodの認定パートナーで、サーバシステムのNVIDIA OVXの検証に参加することも発表している。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news028.jpg

ファイザーのコンテンツサプライチェーン変革 “コロナ禍で世界を救った”経験はどう生かされたのか?
新型コロナウイルスワクチンをいち早く完成させた製薬会社は、コンテンツサプライチェー...

news167.jpg

企業の生成AI活用 なぜ日本は米国に追い抜かれたのか?
PwC Japanグループは日米両国で実施した「生成AIに関する実態調査」を基に、日本企業と米...

news012.png

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2024年10月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...