「GPUの高速処理」を念頭に NVIDIAとの協業でストレージ8社が手掛けるのは?AI市場で存在感を示すストレージベンダー

NVIDIAはAI技術のデータ処理に適したGPUや開発ツールの提供に力を入れる。同社と連携するストレージベンダー8社の取り組みをまとめた。

2024年06月07日 08時00分 公開
[Antony AdsheadTechTarget]

関連キーワード

人工知能 | GPU | Dell(デル) | HPC | ストレージ


 人工知能(AI)技術は、ストレージベンダーの製品に新たな波をもたらしている。半導体ベンダーのNVIDIAが2024年3月中旬に開催した年次イベント「GPU Technology Conference 2024」(GTC 2024)には、NVIDIAとの協力に前向きな複数のストレージベンダーが登壇した。

 イベントに参加したストレージベンダー各社の取り組みの中心となっていたのは、AIアプリケーションに使われる大量のデータを、GPU(グラフィックス処理装置)で高速に処理できるようにするために、入出力(I/O)のボトルネックを抑えることだ。ストレージベンダー8社が発表した内容をまとめた。

NVIDIAと協力する主要8社のストレージとは

 ストレージベンダー各社がAIアプリケーション向けの製品やサービスを提供するために使用するツールとしては、例えば以下がある。

  • 生成AI開発サービスの「NVIDIA NeMo」
  • マイクロサービスを提供する「NVIDIA NIM」
  • AIアプリケーション向けレファレンスアーキテクチャの「DGX BasePOD」

 NVIDIAは、生成AIで生成したテキストに外部情報の検索結果を組み合わせるRAG(Retrieval Augmented Generation:検索拡張生成)技術との開発にも力を入れる。RAGは、生成AIモデルが事実と異なる内容を出力する幻覚(ハルシネーション)を抑えるために利用できる。

 GTC 2024でNVIDIAのCEOジェンセン・ファン氏がメッセージの中心として伝えたのは、コンピュータ業界の変化だ。同氏はコンピュータ業界がAIアプリケーションを軸として変化し、AIアプリケーションの役割はデータの取得ではなくデータの生成に変化しつつあると説明する。新しいAIモデルを開発するには学習が必要なため、大量の学習データが必要になる。

 NVIDIAは、自社のGPUをはじめとしたプロセッサが、より大規模なシステムで利用可能になるように開発を進めている。同社の新しいGPU「Blackwell」は2080億個のトランジスタを装備し、これまでのプロセッサよりも低い消費電力で1兆パラメーターの大規模言語モデル(LLM)を処理する能力を備える。

 BlackwellをはじめとしたNVIDIAのGPUは、同社の「NVIDIA OVX」や「NVIDIA DGX」などのAIアプリケーション向けサーバシステム、DGX BasePODといったレファレンスアーキテクチャに組み込まれている。

 ここからはGTC 2024でストレージベンダー各社が発表した内容を幾つか紹介する。

Cohesity

 バックアップアプライアンスを手掛けるCohesityは、同社が開発するAIアシスタント「Gaia」にNVIDIA NIMを利用して、NVIDIAのAI開発サービス群「NVIDIA AI Enterprise」を組み込むことを発表した。Cohesity Gaiaはユーザー企業が保有するバックアップデータやアーカイブデータをAIモデルの学習データとして利用可能にすることで、生成AIアプリケーションの開発に役立てられるようにする。CohesityはNVIDIAから資金供与を受けることも発表した。

DataDirect Networks(DDN)

 ハイパフォーマンスコンピューティング(HPC)向けストレージを提供するDataDirect Networks(DDN)はストレージシステムの「AI400X2 Turbo」を発表した。AI400X2 TurboはAIアプリケーションへの利用を主な想定用途にしている。同製品は同社の従来のモデルである「AI400X2」と同じフォームファクタだ。AI400X2 Turboはメモリを増設してネットワーク機能を強化することで、AI400X2の最大帯域幅である90GBpsに対して最大帯域幅120GBpsを実現している。

 DDNはGPU-as-a-serviceを提供する大手ベンダーの一つだ。同社は自社が持つGPU技術を利用して、HPCストレージベンダーからAIアプリケーション向けストレージの主要ベンダーへの転換を図っている。

Dell Technologies

  Dell Technologiesが発表したのは、AIアプリケーション向けインフラ製品・サービス群の「Dell AI Factory」だ。Dell AI Factoryには、同社のデスクトップPCやノートPC、GPUサーバの「PowerEdge XE9680」、オールフラッシュストレージの「PowerScale F710」ストレージサーバなどが含まれる。これらのハードウェアはNVIDIA製のGPUを搭載しており、NVIDIA AI Enterpriseが利用可能だ。PowerEdge XE9680はNVIDIAのAIアプリケーション向けイーサネットネットワークシステムの「NVIDIA BlueField-3 SuperNICs」が利用できる。

 Dell AI Factoryの製品群は、同社のサーバやストレージなどのハードウェアを従量制課金で提供するサービス「Dell APEX」で利用できる。

Hewlett Packard Enterprise(HPE)

 Hewlett Packard Enterprise(HPE)は主に以下の内容を発表した。

  • 生成AI向けの新しいスーパーコンピューティングシステム
  • NVIDIA NeMoのマイクロサービスを使用したRAGのレファレンスアーキテクチャ
  • NVIDIA NIMを使用して開発したAIモデル開発サービス「HPE Machine Learning Inference Software」のプレビュー版
  • NVIDIAのGPUチップであるBlackwellを搭載した将来の製品計画

 HPEの新しいエンタープライズ向け生成AIスーパーコンピューティングシステムは、AIモデルのチューニングと推論に重点を置いている。このシステムは同社のサーバ「HPE ProLiant DL380a Gen11」とNVIDIAのGPU、NVIDIAのDPU(データ処理装置)である「NVIDIA BlueField-3 DPU」を中心に事前構築され、HPEの機械学習と分析のためのソフトウェアが搭載される。

日立ヴァンタラ(Hitachi Vantara)

 日立ヴァンタラが発表したのはAI関連製品・サービス群の「Hitachi iQ」だ。Hitachi iQは、同社のストレージ製品とNVIDIAのDGX GPUまたはそのOEM版の「HGX GPU」を組み合わせて、ユーザーとなる各業界の特定の用途に特化したAIシステムを提供する。Hitachi iQのストレージ製品群はNVIDIA BasePODの認証を受け、NVIDIA AI Enterpriseソフトウェアを搭載する。

 日立ヴァンタラは分散ファイルシステム「Hitachi Content Software for File」(HCFS)の最新版を利用したAIアプリケーション向けの高速処理が可能なストレージも提供する。

NetApp

 NetAppは、同社のストレージOS「NetApp ONTAP」で、NVIDIAのマイクロサービス「NVIDIA NeMo Retriever」を利用可能にする。NVIDIA NeMo Retrieverは、生成AIアプリケーションにRAG機能を組み込み、正確な応答ができるようにするサービスだ。同サービスを利用することで新しくリポジトリを作成する必要なく、生成AIモデルから企業の非構造化データへのアクセスを可能にする。

Pure Storage

 Pure StorageはRAGのためのパイプラインを作成したことを発表した。このパイプラインは、NVIDIA NeMoのマイクロサービスをNVIDIA製GPUとPure Storageのストレージと連携させて使用する。自社が所有するデータをAIモデルの学習に利用するユーザー企業はこのパイプラインを利用することで、AIモデルの開発にかかる時間の短縮や最新データの利用、AIモデルの再トレーニングの頻度の低減が可能になる。

 業種を特化するRAGも発表した。現時点でターゲットにするのは金融サービスのみだが、ヘルスケアや公共部門向けのRAGの開発も予定している。

 Pure Storageは、同社のストレージがNVIDIAによって、NVIDIA OVXに準拠していると認定を受けたことも発表した。

Weka

 NAS(ネットワーク接続ストレージ)ベンダーのWekaIOは、NVIDIAのAIアプリケーョン向けHPCのレファレンスアーキテクチャ「DGX SuperPod」のインフラとして、動作検証済みのハードウェアアプライアンス「WEKApod」を発表した。

 WEKApodは汎用(はんよう)インタフェース規格「PCI Express(PCIe) 5.0」を使用し、8ノードで1PBのクラスタで、1830万IOPS(1秒当たりの入出力操作)を実現する。

 WekaはNvidia DGX BasePodの認定パートナーで、サーバシステムのNVIDIA OVXの検証に参加することも発表している。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news078.jpg

マーケティングツール活用にまつわる3つの課題とは? ――インキュデータ調査
マーケティングツールを利用する企業は多いものの、利用企業はツールをうまく使いこなせ...

news205.png

広告の「No.1」表記の実態 購入動機の約60%に影響
GMOリサーチ&AIは広告の「No.1」表記に対する消費者の捉え方を把握するために調査を実施...

news188.png

香り体験をデジタル化する「香りリテールメディア」 東芝テックとスコープが提供開始
店頭に香りリテールメディア用のタブレットと香料噴射器が付いた商品棚を設置して、消費...