QLC+3D XPointのユニバーサルストレージが実現する非ストレージ階層化:ストレージ階層化は不適切
高速メディアと低速メディアを組み合わせるストレージ階層化を否定する企業が現れた。VAST Dataは、HDDレベルの価格で高速・大容量で階層化を必要としない「ユニバーサルストレージ」を提供する。
米国を拠点とするフラッシュストレージのスタートアップ企業VAST Dataのアイデアは、3D XPointをバッファーとするバルクQLCフラッシュに全てのデータを常駐させるというものだ。そうすればデータのパフォーマンスが向上する。だがそれだけではない。本来の狙いとは異なるが、非常に高い可用性も得られる。
関連記事
- 使用頻度ではなくファイルサイズによるストレージ階層化の是非
- ストレージ階層化を活用するために知っておくべき5つのポイント
- 書き込みが遅くて耐久性が低いQLC SSDが活躍できる用途
- PLC(ペンタレベルセル)フラッシュでフラッシュストレージはどう変わる?
- DIMMスロットに装着できる「Intel Optane」登場でストレージが変わる
それがなぜ重要なのだろうか。VAST Dataが念頭に置いているのは、機械学習の演算を実行するために自社の全てのデータにアクセスしたいと考える顧客が増えていることだ。こうした顧客は、複数のメディアにある全てのデータにアクセスしたいと考える。
VAST Dataのアイデアのメリットは、多数のストレージシステムを運用する必要がないことと、ストレージシステムを多数運用することで生じる効率低下に悩む必要がないことにある。
Gartnerが提唱するピラミッドは、大容量のストレージを底辺とし、最もパフォーマンスの高いストレージを頂点に置く。このピラミッドはデータセンターで「不適切な動作」を生み出すという弊害があるとVAST Dataで製品部門のバイスプレジデントを務めるジェフ・デンワース氏は話す。このピラミッドによって多種多様なストレージシステムを使う必要性が生じ、その結果として階層間のデータ移動が必要になるという。
VAST Dataが行ったのは、この「伝統的なストレージピラミッド」を覆すことだとデンワース氏は語る。クラウドのように簡単に利用でき、データにランダムにアクセスできるストレージをオンプレミスに提供するのが狙いだ。機械学習のワークロードにはこうしたランダムアクセスが必要だ。
デンワース氏によれば、それは既存のパフォーマンス層やシステムの全てを置き換える「オールフラッシュアーカイブ」あるいは「ユニバーサルストレージ」と言い換えてもよいという。つまり、「3D XPointの速度」で書き込み1秒当たりテラバイト単位で読み込む、数百万IOPSに達するストレージだ。
VAST Dataのハードウェアは、3D XPointと「低コストのフラッシュ」を内部で接続するNVMe over Fabrics(NVMe-oF)を軸に構成される。ホストには、NFS、SMB、Amazon S3プロトコルによるNASおよびオブジェクトストレージアクセスを提供する。
負荷の高い作業は、最大675TBのQLCフラッシュと18TBの3D XPointを実装した2Uノードで処理する。データ削減後の総実効容量はペタバイトに達する可能性がある。
これらのノードはインテリジェンスを備えていない。コントローラーのインテリジェンスは、「Kubernetes」ベースのコンテナ化されたストレージサーバに存在する。このサーバがI/O要求、フラッシュ層とストレージ層間のデータ移動、イレージャーコーディング、データの削減と暗号化を処理する。ストレージコントローラーの処理はストレージサーバで行うため、パフォーマンスを拡張する場合はストレージサーバノードを追加する。1つのストレージサーバノードに収容できるコンテナは最大1000で、全体では最大1万のコンテナに対応する。
デンワース氏によると、ストレージサーバとバルクストレージ間の遅延時間は常に10マイクロ秒未満に抑えられるという。
高速メディアを使うコンテナベースのストレージサーバは、ステートレスなアプローチにつながる。ストレージサーバにはキャッシュがないため、ストレージサーバがダウンしてもキャッシュの一貫性が破綻することもなく、キャッシュを再構築する必要もない。スケーリングは全てシステム全体で「Docker」コンテナを複製することで処理される。
VAST Dataは、これを「非統合、全共有アーキテクチャ」(DASE:Disaggregated, Shared Everything)と呼んでいる。
VAST Dataの製品は全てハードウェア、全てソフトウェア、またはハードウェアとソフトウェアの組み合わせとして利用可能だ。
Copyright © ITmedia, Inc. All Rights Reserved.