データセンターの非効率性を解決するコンポーザブルインフラ:コンポーザブルインフラの登場【前編】
構成が固定的なハードウェアでは、現在の複雑なワークロードを効率的に処理できない。そこで登場したのが異種(ヘテロジニアス)コンピューティングだったが、これも十分ではなかった。
増え続けるデータの完全活用を目的とする高度な分析と機械学習のツールのニーズが高まっている。その結果、そうした技術に必要な演算を実現する新たな要件がITインフラに課されている。
CIO(最高情報責任者)や企業IT部門の意思決定者にとって「ビッグデータ」という概念が重要なトピックになってから10年近くになる。だが多くの企業は、手持ちのデータを完全活用して洞察によって駆動する適切な戦略の導入に依然苦戦している。
関連記事
- GPUを超える「IPU」(Intelligence Processing Unit)は実現するか?
- AIの拡大で増大するカスタムハードウェア需要
- GPUより低コスト、ハイパフォーマンスのFPGAが抱える“泣きどころ”
- Cerebras SystemsのAI専用巨大チップ、性能もモンスター級
- 機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦
モノのインターネット(IoT)などの組み込みシステムが生み出すデータやセンサーから得るデータ、企業システムのトランザクションデータ、ソーシャルメディアやWebサイトのデータなど、データのソースは非常に多様になっている。そのため、企業のワークロードは構造化データセットとトランザクション処理を中心とする従来型ワークロードの枠を超えて進化し、人工知能(AI)などの分析技法を取り入れ始めている。
IT調査企業のIDCは、AIが2024年までに企業ワークロードの中核要素になると予想する。同社によると、4分の3の企業でAIベースまたはAI対応のワークロードが総数の20%を占めるまでになり、ITインフラの15%はAIによって加速されるという。
ただし、高度な分析とAIをワークロードに統合すると、ITインフラに負担が掛かる恐れがあることも分かっている。
並列処理
こうした技法には、高度な並列処理が求められるものが多い。だが、従来型のCPUアーキテクチャは並列処理に格別適しているとは言えない。
この種の問題にGPUが適しているのは明らかだ。GPUはグラフィックス処理の負荷をCPUからオフロードするよう設計されている。GPUは比較的シンプルなプロセッサコアを多数備え、大量の演算の並列処理を可能にしている。
FPGA、ASICなどのハードウェアアクセラレーターも同様で、いずれもワークロードのアクセラレーションに関してさまざまな強みを持つ。FPGAはニューラルネットワークのパフォーマンスを向上させ、論理回路の再プログラミングも可能だ。だが、GPUで実行するソフトウェアよりもプログラミングが格段に複雑になる。
こうしたアクセラレーターは通常、サーバに組み込まれて既存のプロセッサコアと連動する。これは異種(ヘテロジニアス)コンピューティングとして知られている。異種コンピューティングの能力を最大限に高めるには、異なる種類のコンピューティングエンジンを1つのシステムに注意深く統合し、1ワット当たりのパフォーマンスを最適化する必要がある。
こうした異種コンピューティングシステムの好例の一つがNVIDIAの「DGX」シリーズだ。同製品は、ディープラーニングなどの高負荷なAIワークロードやハイパフォーマンスコンピューティング(HPC)のワークロードを直接の目的として、Intelの「Xeon」とNVIDIAのGPU「Tesla V100」を1つのシステムに統合している。
DGXシリーズはハードウェアアクセラレーター導入に伴う問題も幾つか明らかにする。Tesla GPUを16基備えるDGX-2の発売時の価格は39万9000ドル(約4300万円)だった。そのため、購入できるのはこのレベルのパフォーマンスがどうしても必要な企業に限られるだろう。
コンポーザブルインフラの登場
こうした難問への答えの一つがコンポーザブル(構成可能)インフラだ。コンポーザブルインフラとは、従来型サーバのハードウェアの一部をリソースプールに振り分けるシステムアーキテクチャを指す。この概念を支えるのは、ソフトウェア制御の下、適度のリソースをまとめて運用対象のワークロードの要件を的確に満たすシステムを実現するという考え方だ。
既存のシステムはプロセッサの数やメモリ、ストレージなどのリソースがほぼ固定されており、簡単には変更できない。一般的にはこうした制約が原因で、ワークロードが必要とするよりも多くのリソースを保有することになる。これでは最適な利用率にはならない。
オンデマンドで共有プールからリソースを取り出してシステムを構成できれば、GPUやFPGAなどの高価なハードウェアをシステム群で共有し、必要に応じて分配することが可能になる。その結果、アクセラレーターを必要とするワークロードを実行しなければならない全てのシステムに、そうしたハードウェアを固定的に取り付ける必要がなくなる。
とはいえ、分析企業Gartnerが発行した最近のレポート「Understand the Hype, Hope and Reality of Composable Infrastructure」(コンポーザブルインフラの誇大広告、期待、そしてその現実について)によると、「コンポーザブル」という言葉はサプライヤーの多岐にわたる機器を表すのに使われているという。
また、コンポーザブルインフラは壁にも直面している。それは、DRAMをプロセッサから分離するのが困難なことや、サプライヤー間のAPIが不足していることに起因する。APIがなければ、あるサプライヤーのコンポーザブルキットを別のサプライヤーのキットと連動させるのは難しい。
後編(Computer Weekly日本語版 5月20日号掲載予定)では、コンポーザブルインフラの現状と長所と短所、可能性を解説する。
Copyright © ITmedia, Inc. All Rights Reserved.