2026年「SSD枯渇」の悪夢再び? AIブームが引き起こすストレージ調達危機:「Wasabi Fire」らが示す、AI時代のインフラ生存戦略
「ストレージはただの器」という認識が、AIプロジェクトを破綻させる。AIの真の力を引き出し、コストの死角を消すための戦略的資産のこつとは。ベンダー動向を踏まえ解説する。
2025年11月、ストレージベンダーWasabi Technologiesは高性能クラウドストレージサービス「Wasabi Fire」を発表した。このサービスは、AI(人工知能)技術をはじめ、低いレイテンシ(遅延)が求められるワークロードを処理しやすくするよう設計されているという。
Wasabi Technologies によると、Wasabi Fireはストレージインタフェース規格「NVMe」(Non-Volatile Memory Express)を使用したオールフラッシュストレージに基づいており、AIモデルのトレーニングや推論に必要な高スループットと低レイテンシを提供する。
Wasabi Fireの投入は、エンタープライズ向けストレージ市場の重要なトレンドを示している。DataDirect Networks(DDN)やPure Storage、Dell Technologiesといったストレージベンダーは、複雑なAIワークロードの処理を可能にするために必要な性能やスケーラビリティ(拡張性)を提供できる製品開発に注力しているところだ。本稿は、AIがストレージベンダーの製品戦略に与える影響をまとめた。
「AIを導入したが、成果出ない」 鍵はストレージに?
AI技術の利用に取り組んでいる企業は、ストレージを「受動的なデータの保管場所」と見なすのではなく、AI技術を積極的に利用しやすくする装置として捉えるようになっている。具体的には、AIワークロードに必要な1秒間に1億回の読み書き処理(IOPS)やスループットを提供するだけではなく、高い耐久性やインテリジェントな管理機能などを求めるようになった。これらのストレージシステムは、さまざまなクラウドサービスを組み合わせたインフラにまたがるデータを処理する柔軟性も必要だ。
そうした中、ストレージベンダーはAIワークロードの要求を満たすための製品/サービスを提供するべく、さまざまな技術や手法を駆使している。特に重要な技術がNVMeと「NVMe-oF」(NVMe over Fabrics)だ。
NVMeの特徴
NVMeは、SSDの性能を最大限に引き出せない従来のストレージインタフェース規格の制限を克服するために開発された。NVMeは高度に並列化されたデータ転送を可能にし、スループットを向上させるとともに、ストレージ使用量やI/O(入出力)のオーバーヘッドを削減する。汎用(はんよう)インタフェース規格「PCI express」(PCIe)を用い、CPUとストレージ間の高速通信を最適化することで、他のインタフェースタイプより低いレイテンシと高いデータ転送速度を実現する。
NVMe-oFは、ネットワークファブリックを介してNVMeを拡張し、イーサネットやInfiniBand(インターコネクト規格)、ファイバーチャネル(FC)ネットワークを介してリモートSSDと通信することを可能にする。NVMeとNVMe-oFは、「SATA」や「SAS」などの古い転送プロトコルと比べてレイテンシを減らし、IOPSを向上させる。
SSDとPCIe
AIは、AIライフサイクル全体で発生するさまざまな種類のワークロードとデータ処理ができる性能、可用性、耐久性、スケーラビリティを提供できるSSDを必要としている。オールフラッシュドライブは、高スループットと極めて低いレイテンシを必要とする処理に必要だ。同時に、SSDは性能や耐久性を損なうことなく、巨大な量のデータを収容するために必要な容量を提供できなければならない。
ストレージベンダーは、より高い性能を実現するために、ストレージ製品を進化させている。例えば、「PCIe 5」(PCIeのの第5世代規格)や「PCIe 6」(PCIeのの第6世代規格)に基づくSSDを提供するベンダーがある。一部のストレージベンダーは、高性能GPU(グラフィックス処理装置)製品群「NVIDIA GPUDirect」を採用し、ネットワークアダプタやストレージドライブがGPUメモリに直接データを読み書きできる技術を利用している。
インテリジェントなデータ管理
インテリジェントなデータ管理も、AIを効果的に処理するために不可欠だ。例えば、インテリジェントなデータ管理機能を備えたストレージシステムはプロビジョニング、キャッシング、データティアリングを自動化したり、ポリシーに基づいた性能チューニングを実施したりできる。一部のストレージシステムは異なるクラウドサービス間でデータをシームレスに移動させることを可能にしている。
統合能力
AIアプリケーションの性能を引き出すには、AIパイプライン(学習から推論までの一連のワークフロー)やAIモデル開発ツール群と連携できるストレージシステムが有効だ。幾つかのストレージシステムは、「ソフトウェア定義ストレージ」(SDS)や分散型アーキテクチャを組み込んでいる。その他のストレージシステムでは、AI機能がストレージ自体に統合され、データを管理しやすくしている。
AI主導の企業が取り組むべきストレージ戦略
AI技術の利用が広がる前、企業はストレージシステムをTB当たりのコストに基づいて評価し、導入を計画していた。ストレージはデータセンターのバックエンド製品として扱われ、業務アプリケーションの処理において重要だとは見なされていなかった。企業の業務内容やシステムの変化に応じて、ストレージリソースが調整されることがあったが、これらの処理が求める容量や性能は安定的であり、予測可能な範囲に収まっていた。
エンタープライズAIの処理は、従来のストレージの計画と実装に課題をもたらす。AIワークロードはモデルトレーニングや推論といった複雑な処理を伴うため、高スループットと低レイテンシを提供するストレージが欠かせない。AI技術の利用に適したストレージシステムは、AIライフサイクル全体での多様な要求に対応できるよう、拡張性と堅牢(けんろう)性を備えている必要がある。ストレージシステムは並列処理を可能にし、構造化データと非構造化データの両方を含む巨大なデータセットを管理できることが重要だ。
従来のストレージをAIアプリケーションに使用すると、システムがワークロードの要求に追い付けない可能性がある。これによって、ボトルネックが発生し、GPUが十分に活用されないか、長時間アイドル状態になり得る。これはストレージ投資のROI(投資利益率)に影響を与えるだけではなく、AI利用による結果創出を遅らせる恐れがある。
企業は、ストレージをAIインフラの重要な要素として再考する必要がある。これには、GPU、CPU、その他の重要なリソースと同様に、ストレージシステムを戦略的資産として捉えることが含まれる。
一方で、企業は強力なAIストレージ戦略を実現するための変化や課題に備える必要がある。AI技術の活用の中心は推論に移っていくと予測される。即時性が求められる推論処理を支えるためには、高いIOPSと超低レイテンシが必要だ。SSDは需要が増加し、将来、不足や価格上昇を招く可能性があるため、企業はその影響も考慮しなければならない。
Copyright © ITmedia, Inc. All Rights Reserved.