検索
特集/連載

500TB“モンスターSSD”から1億IOPSまで――異次元ストレージ技術が動き出すAI時代を切り開く次世代ストレージ技術

大容量・高性能SSDなどがテーマとなった「Future of Memory and Storage」の論議は全て、背景にAIの存在があった。注目すべき進化について、4つの観点で紹介する。

Share
Tweet
LINE
Hatena

関連キーワード

SSD | 半導体ストレージ | 人工知能


 ストレージの技術進化にもAI(人工知能)ブームが興味深い影響を与えている。2025年8月に開かれたカンファレンス「Future of Memory and Storage」には、約200人の講演者が集まった。語られたのは、ストレージ市場におけるAIの重要性と、従来のワークロード(アプリケーションやその処理負荷)からAIワークロードへのシフトに対応できるストレージ技術についてだ。ここでは4つのSSD新技術に着目する。

1.モンスターSSD

 どのSSDベンダーも、容量100T(テラ)Bを超える大容量SSDを披露した。Samsung Electronicsは200TB超のSSDを発表し、Sandisk(Western Digitalのブランド)は2027年に512TBのSSDを発売すると予告した。そうしたSSDの多くは、容量と放熱性の両方の理由から、新しいE1.L「Ruler」フォームファクターで出荷される。

 そうした“モンスターSSD”登場の背景にあるのは、1つのメモリセルに3bitを格納するTLC(トリプルレベルセル)のSSDとHDDの間に、1つのメモリセルに4bitを格納するQLC(クアッドレベルセル)のSSDの新しい層を挿入すると性能が上がるというMeta Platformsの発表だ。

2.AI最適化SSD

 カンファレンスでは、各社がAI向けの独自アプローチを紹介した。中でも印象的だったのは、Solidigmが披露した“液体で冷やせるSSD”と、Phisonが発表した大規模言語モデル(LLM)向けのコスト削減SSDだ。

 SolidigmのSSDは、通常の空冷式SSDと同じように、サーバのフロントパネルに差し込んで使える。ただし特徴的なのは、専用ラックに取り付けた“液体で冷やすプレート”をSSDに押し当てて使う仕組みだという点だ。さらに内部には、SSDの前面と背面の温度をバランスよく保つための熱管理機能が組み込まれており、安定した性能を引き出せるよう工夫されている。

 一方、Phisonの「Pascari SSD」は、AI学習に欠かせない“膨大なデータの書き込み”に強い。「1日に100回フル書き込みしても耐えられる」という非常にタフな設計だ。AIの学習処理は書き込み量が極端に多いため、この耐久性は大きな強みになる。

 Phisonの技術者によると、「GPUの性能はメモリ容量に比例する」という考え方に基づいているという。そこで、高速な広帯域メモリ(HBM)DRAMと、その効率的な管理、さらに低コストなNAND型フラッシュを組み合わせることで、通常より少ないGPUで大規模モデルを処理できるようにした。これを実現する同社のアプローチ「aiDAPTIV+」では、場合によってはGPU1基でもLLMを動かせる。もちろんGPUを複数使う場合と比べれば性能は落ちるが、システムコストを大幅に抑えられるのが大きなメリットだ。

3.1億IOPS SSD

 AI専用の“超高速SSD”として、1秒間に1億回の読み書き処理(IOPS)を実現する計画を、複数のベンダーが発表した。おそらく大規模データセンターを運営するハイパースケーラー向けに提示された目標だと考えられる。

 ここで重要なのは、この「1億IOPS」という数字が、従来SSDの性能比較に使われる標準的な「4K IOPS」(1回あたり4キロバイト単位の処理)とは異なる点だ。AIワークロードでは扱うデータの“粒度”がもっと細かく、512バイト単位の小さなデータを高速に処理することが求められる。そのため新しいAI専用SSDは、GPUに対して“1億の512バイトIOPS”を送り込む設計になっている。

 この数字は一見途方もないが、一定のI/O帯域幅の中では十分に実現可能と考えられている。もちろん容易ではないが、「1億の4K IOPS」を達成するよりは現実的だ。それでも大手SSDベンダーがこの課題に挑み、量産を視野に入れているという事実は、AI時代におけるストレージ技術の進化スピードを物語っている。

4.広帯域幅フラッシュ

 SanDiskは、GPUで使われるHBMが抱えるサイズの制約と高コストという課題に、別の方法で挑んでいる。同社が開発中なのは「HBF」(High Bandwidth Flash:広帯域幅フラッシュ)という新しいタイプのフラッシュメモリだ。HBMの全てを置き換えるわけではないが、その一部をHBFで代替することを想定している。

 一般的なNAND型フラッシュメモリはコストを最優先に設計されているが、HBFは読み込み速度(帯域幅)の向上に特化している。それでも、同じレベルの読み込み性能を持つDRAMと比べればコスト面では有利だ。ただし物理的な制約から書き込み性能の強化には限界があり、HBFはAIの推論処理には向くが、トレーニング処理には不向きだとされる。

 SanDiskは2月の投資家向けイベントで、この技術を初めて披露した。その際に示された図では、1つのHBF NANDダイ(半導体チップ)が、あたかも16個の独立したチップのように並列動作することが描かれていた。ただし実際にいくつのチップ分として動作するのかは公表されていない。試算によると、HBF NANDを無制限に搭載したGPUの性能は、HBMを無制限に搭載したGPUに比べてもわずか3%程度の差に収まるという。つまり、コストを大幅に抑えつつ、高い推論性能を実現できる可能性を示している。


 長期的に見れば、こうした新しいストレージ技術の登場は、目覚ましい勢いで成長しているAIの進化をさらに加速させるだろう。次々と生まれる新しいアイデアや製品は、将来のAIをより実用的で身近なものにしていくはずだ。

 一方でストレージ業界にとって重要なのは、新技術をしっかり市場に届けることだ。そうすれば、万が一AIへの投資が一時的に鈍ったとしても、自社の安定した成長を維持することができる。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る