NVIDIAはAI技術のデータ処理に適したGPUや開発ツールの提供に力を入れる。同社と連携するストレージベンダー8社の取り組みをまとめた。
人工知能(AI)技術は、ストレージベンダーの製品に新たな波をもたらしている。半導体ベンダーのNVIDIAが2024年3月中旬に開催した年次イベント「GPU Technology Conference 2024」(GTC 2024)には、NVIDIAとの協力に前向きな複数のストレージベンダーが登壇した。
イベントに参加したストレージベンダー各社の取り組みの中心となっていたのは、AIアプリケーションに使われる大量のデータを、GPU(グラフィックス処理装置)で高速に処理できるようにするために、入出力(I/O)のボトルネックを抑えることだ。ストレージベンダー8社が発表した内容をまとめた。
ストレージベンダー各社がAIアプリケーション向けの製品やサービスを提供するために使用するツールとしては、例えば以下がある。
NVIDIAは、生成AIで生成したテキストに外部情報の検索結果を組み合わせるRAG(Retrieval Augmented Generation:検索拡張生成)技術との開発にも力を入れる。RAGは、生成AIモデルが事実と異なる内容を出力する幻覚(ハルシネーション)を抑えるために利用できる。
GTC 2024でNVIDIAのCEOジェンセン・ファン氏がメッセージの中心として伝えたのは、コンピュータ業界の変化だ。同氏はコンピュータ業界がAIアプリケーションを軸として変化し、AIアプリケーションの役割はデータの取得ではなくデータの生成に変化しつつあると説明する。新しいAIモデルを開発するには学習が必要なため、大量の学習データが必要になる。
NVIDIAは、自社のGPUをはじめとしたプロセッサが、より大規模なシステムで利用可能になるように開発を進めている。同社の新しいGPU「Blackwell」は2080億個のトランジスタを装備し、これまでのプロセッサよりも低い消費電力で1兆パラメーターの大規模言語モデル(LLM)を処理する能力を備える。
BlackwellをはじめとしたNVIDIAのGPUは、同社の「NVIDIA OVX」や「NVIDIA DGX」などのAIアプリケーション向けサーバシステム、DGX BasePODといったレファレンスアーキテクチャに組み込まれている。
ここからはGTC 2024でストレージベンダー各社が発表した内容を幾つか紹介する。
バックアップアプライアンスを手掛けるCohesityは、同社が開発するAIアシスタント「Gaia」にNVIDIA NIMを利用して、NVIDIAのAI開発サービス群「NVIDIA AI Enterprise」を組み込むことを発表した。Cohesity Gaiaはユーザー企業が保有するバックアップデータやアーカイブデータをAIモデルの学習データとして利用可能にすることで、生成AIアプリケーションの開発に役立てられるようにする。CohesityはNVIDIAから資金供与を受けることも発表した。
ハイパフォーマンスコンピューティング(HPC)向けストレージを提供するDataDirect Networks(DDN)はストレージシステムの「AI400X2 Turbo」を発表した。AI400X2 TurboはAIアプリケーションへの利用を主な想定用途にしている。同製品は同社の従来のモデルである「AI400X2」と同じフォームファクタだ。AI400X2 Turboはメモリを増設してネットワーク機能を強化することで、AI400X2の最大帯域幅である90GBpsに対して最大帯域幅120GBpsを実現している。
DDNはGPU-as-a-serviceを提供する大手ベンダーの一つだ。同社は自社が持つGPU技術を利用して、HPCストレージベンダーからAIアプリケーション向けストレージの主要ベンダーへの転換を図っている。
Dell Technologiesが発表したのは、AIアプリケーション向けインフラ製品・サービス群の「Dell AI Factory」だ。Dell AI Factoryには、同社のデスクトップPCやノートPC、GPUサーバの「PowerEdge XE9680」、オールフラッシュストレージの「PowerScale F710」ストレージサーバなどが含まれる。これらのハードウェアはNVIDIA製のGPUを搭載しており、NVIDIA AI Enterpriseが利用可能だ。PowerEdge XE9680はNVIDIAのAIアプリケーション向けイーサネットネットワークシステムの「NVIDIA BlueField-3 SuperNICs」が利用できる。
Dell AI Factoryの製品群は、同社のサーバやストレージなどのハードウェアを従量制課金で提供するサービス「Dell APEX」で利用できる。
Hewlett Packard Enterprise(HPE)は主に以下の内容を発表した。
HPEの新しいエンタープライズ向け生成AIスーパーコンピューティングシステムは、AIモデルのチューニングと推論に重点を置いている。このシステムは同社のサーバ「HPE ProLiant DL380a Gen11」とNVIDIAのGPU、NVIDIAのDPU(データ処理装置)である「NVIDIA BlueField-3 DPU」を中心に事前構築され、HPEの機械学習と分析のためのソフトウェアが搭載される。
日立ヴァンタラが発表したのはAI関連製品・サービス群の「Hitachi iQ」だ。Hitachi iQは、同社のストレージ製品とNVIDIAのDGX GPUまたはそのOEM版の「HGX GPU」を組み合わせて、ユーザーとなる各業界の特定の用途に特化したAIシステムを提供する。Hitachi iQのストレージ製品群はNVIDIA BasePODの認証を受け、NVIDIA AI Enterpriseソフトウェアを搭載する。
日立ヴァンタラは分散ファイルシステム「Hitachi Content Software for File」(HCFS)の最新版を利用したAIアプリケーション向けの高速処理が可能なストレージも提供する。
NetAppは、同社のストレージOS「NetApp ONTAP」で、NVIDIAのマイクロサービス「NVIDIA NeMo Retriever」を利用可能にする。NVIDIA NeMo Retrieverは、生成AIアプリケーションにRAG機能を組み込み、正確な応答ができるようにするサービスだ。同サービスを利用することで新しくリポジトリを作成する必要なく、生成AIモデルから企業の非構造化データへのアクセスを可能にする。
Pure StorageはRAGのためのパイプラインを作成したことを発表した。このパイプラインは、NVIDIA NeMoのマイクロサービスをNVIDIA製GPUとPure Storageのストレージと連携させて使用する。自社が所有するデータをAIモデルの学習に利用するユーザー企業はこのパイプラインを利用することで、AIモデルの開発にかかる時間の短縮や最新データの利用、AIモデルの再トレーニングの頻度の低減が可能になる。
業種を特化するRAGも発表した。現時点でターゲットにするのは金融サービスのみだが、ヘルスケアや公共部門向けのRAGの開発も予定している。
Pure Storageは、同社のストレージがNVIDIAによって、NVIDIA OVXに準拠していると認定を受けたことも発表した。
NAS(ネットワーク接続ストレージ)ベンダーのWekaIOは、NVIDIAのAIアプリケーョン向けHPCのレファレンスアーキテクチャ「DGX SuperPod」のインフラとして、動作検証済みのハードウェアアプライアンス「WEKApod」を発表した。
WEKApodは汎用(はんよう)インタフェース規格「PCI Express(PCIe) 5.0」を使用し、8ノードで1PBのクラスタで、1830万IOPS(1秒当たりの入出力操作)を実現する。
WekaはNvidia DGX BasePodの認定パートナーで、サーバシステムのNVIDIA OVXの検証に参加することも発表している。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...