AI推論の遅延解消を目指す「SSDの魔改造」「GPUのNAND化」とは?AIに欠かせないSSD【後編】

GPUへのデータ供給の遅れが、AI推論のボトルネックになっている。この課題に対し、SSD自体を推論処理に特化させるアプローチや、GPUのメモリ構造を変えるアプローチが登場している。その詳細を解説する。

2025年10月15日 05時00分 公開
[Jim HandyTechTarget]

関連キーワード

SSD | 半導体ストレージ | 人工知能


 AI(人工知能)技術の進化に伴い、大容量SSDも進化を遂げている。SSDは学習データを保管する以外にも有望なAI技術関連の用途がある。それは、AIモデルが判断を下す「推論」処理の高速化だ。NAND型フラッシュメモリベンダーのSamsung ElectronicsとSK hynixは、オンプレミスデータセンターにおけるAIモデルの推論処理が、大容量SSDのもう一つの大きな需要要因だと指摘している。

リアルタイム推論を「大容量SSD」で実現する2つのアプローチ

 一部のオンプレミスデータセンターは、クラウドサービスに預けることができない機密データを扱っている。これらのデータセンターでは、AIモデルの学習データや推論データも他のデータと同様のセキュリティレベルで保護しなければならない。さまざまな国の政府が、AI関連のデータ主権(自国のデータは自国内の法律の下で管理するという考え方)を守るために、国内にAIデータセンターを建設している。このことを考えれば、個々の企業や組織が同様の対策を講じるのは自然な流れだ。

 AIモデルの推論は、学習済みのAIモデルを使い、新しいデータに基づいて予測や判断をする処理だ。リアルタイム性が求められる推論が必要な場合、クラウドサービスのAIモデルを用いると、データの転送と応答に時間がかかり、タイムロスが発生してしまう。これを回避するためには、データをクラウドサービスに送らず、オンプレミスデータセンターで処理することが重要になる。

 オンプレミスデータセンターで推論を素早く実行するには、AIモデルを瞬時に読み出さなければならない。こうした読み込みはHDDでは追い付かず、より高速に読み書きが可能なSSDが必要になる。数十TBのAIモデルのように、大きなサイズのAIモデルで推論を実行する場合、その巨大なデータを格納するための大容量SSDも必要になるという考え方だ。

SSDとGPUの最適化

 AIモデルが実行する処理では、GPU(グラフィックス処理装置)の計算能力にストレージからのデータ供給が追い付かず、GPUがデータを待つための「待機時間」が発生する。この無駄な待機時間をいかに減らすかが、AIシステム全体の性能を向上させる上で重要だ。こうした課題を解決するため、ベンダーはSSDの性能、特に応答速度(レイテンシ)やランダムアクセス性能を、GPUがデータを要求するパターンに最適化させる方法を模索している。

 その一つが、NAND型フラッシュメモリ技術ベンダーPhison Electronicが提供する「aiDAPTIV+」だ。これはソフトウェアとハードウェアを組み合わせた製品で、AI関連処理に特化したSSDを使用することで、必要なGPUの数を削減する。aiDAPTIV+は、AI関連処理を実行する上での固有の要件を満たす2つの要素で構成されている。1つ目は高い耐久性を備える専用SSD、2つ目は適切なタイミングでSSDとGPUでデータを入れ替える専用ミドルウェアだ。

 一方、Sandisk(2025年2月にWestern Digitalからフラッシュストレージ事業が分社化)は異なるアプローチを取っている。SSDではなく、GPUが通常搭載するHBM(広帯域メモリ)の一部または全てを置き換える、特別に設計したNAND型フラッシュメモリチップ「HBF」(高帯域幅フラッシュ)の開発を進めている。通常のNAND型フラッシュメモリチップは、容量当たりの価格が最も安くなるように設計される。HBFはそうしたチップを土台にして、複数の独立したチップが並列でデータを読み書きできるようにする技術だ。これによって、読み出しの応答速度や、書き込み前に一度データを消去する必要があるというNAND型フラッシュメモリ固有の制約は残るものの、チップ全体の帯域幅(通信路容量)を飛躍的に向上させることができる。

 HBFの業界標準化に向けて、SandiskとSK hynixが協業しているという事実は、この技術がAI分野における特定の問題を解決する上で、業界全体からの期待が集まっていることを示している。推論処理は学習処理に比べてメモリへの書き込みが大幅に少ないため、特に推論システムにおいて、HBFが有効な選択肢になる可能性がある。

 上述した「GPU内のメモリをNAND型フラッシュメモリチップで置き換える」アプローチは、必ずしも大容量SSDとセットで導入されるものではない。ただし、HBFを採用したシステムに大容量SSDを追加すれば、お互いの長所を補完し、より高性能なシステムを構築できるようになるといったメリットは見込める。SSDを改良するか、GPU内のメモリを改良するか、どちらのアプローチが主流になるにせよ、大規模AIシステムにおけるNAND型フラッシュメモリベースのストレージの容量は、今後さらに速いペースで増加していくことは明らかだ。

Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。

アイティメディアからのお知らせ

From Informa TechTarget

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

ITmedia マーケティング新着記事

news017.png

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

news027.png

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

news023.png

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...