「ハイパフォーマンスコンピューティング」(HPC)の理解に欠かせない分散処理の基本自社の「HPC」構築に必要な視点【前編】

複雑な計算処理や膨大なデータの活用手段に「ハイパフォーマンスコンピューティング」(HPC)がある。HPCが必要かどうかを判断するに当たって、まずはクラスタなどHPCの基本を知ることが欠かせない。

2021年08月26日 05時00分 公開
[Stephen J. BigelowTechTarget]

関連キーワード

HPC | ビッグデータ | サーバ


 「ハイパフォーマンスコンピューティング」(HPC)は、数学の難題に挑戦する方法として誕生した。それから数十年が経過し、2021年現在はさまざまな組織が複雑な問題を解決するためにHPCを利用している。金融リスクのモデリング、宇宙船の飛行解析、数々のビッグデータ活用プロジェクトなどがその例だ。HPCは多数のコンピュータを相互に接続することで、単体のコンピュータでは負荷が大き過ぎて処理できない仕事を実行する。

 HPCを利用する際、リースや購入を選択する企業もあれば、自社データセンター内に自前のインフラを構築する企業もあるだろう。HPCが自社に適しているかどうかや、その最適な実装方法を見極めるには、HPCの要件や制約となる要素を理解する必要がある。まずはHPCがどのようなコンピューティングなのか、基本から見ていこう。

HPCとは何か 根幹を担う分散処理の仕組み

 簡単に言えば、HPCとは高負荷の計算処理を効率良く処理するために設計された、大規模で処理の高速なコンピュータを使うことだ。「スーパーコンピュータ」と称されるHPCも存在する。だがそうしたHPCは、極めて規模の大きな企業でなければ手の届かない存在だ。

 大半の企業は比較的安価なコンピュータの集合によってHPCを実装している。サーバをグループ化したHPCのクラスタでは、「Apache Hadoop」や「MapReduce」といった分散処理フレームワークを使用する。複数のコンピュータ間で計算タスクを分散させることで、複雑な計算処理を高速に実行する。分割して処理した計算やデータは、分散処理のフレームワーク(特定の設計思想に基づくプログラム部品やドキュメントの集合体)によって再統合される。

 HPCに分散処理フレームワークを使用することのメリットの一つは拡張性だ。Apache Hadoopは1台のサーバだけでも機能し、数千台のサーバにスケールアウトすることもできる。簡単に入手可能な汎用(はんよう)のサーバを使用して、現在のニーズに応じた規模で導入し、将来のニーズに合わせて拡張することも可能だ。

 耐障害性もApache Hadoopを利用するメリットになる。障害が発生した場合、問題のシステムを検出してクラスタから切り離し、失敗した処理を別の利用可能なシステムに担わせる。

 こうしたHPCのクラスタ構築は技術的に難しいものではない。一方ビジネス面での課題が浮上することがある。分散処理フレームワークを使うことでサーバを段階的に拡張できるものの、数十台、数百台、数千台と増えるのに従い、サーバやネットワークの調達や保守に多額を要することになる。

 大半の企業において、HPCを必要とするのは特定の用途に限られている。これも問題になる可能性がある。HPCを利用するには調達やスタッフのトレーニングに多額のコストが必要になる。それに見合った活用ができるのかどうかを検討しなければならない。

 HPCの利用を成功させるには、用途やリソースの使用率、投資利益率(ROI)などを徹底的に検討する必要がある。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news148.jpg

天候と位置情報を活用 ルグランとジオロジックが新たな広告サービスを共同開発
ルグランとジオロジックが新たな「天気連動型広告」を共同開発した。ルグランが気象デー...

news130.jpg

“AI美女”を広告に起用しない ユニリーバ「Dove」はなぜそう決めたのか
Unilever傘下の美容ケアブランド「Dove」は、「Real Beauty」の20周年を機に、生成AIツー...

news099.png

有料動画サービス 34歳以下では過半数が利用経験、4割は1日1回以上利用
「ニールセン・ビデオコンテンツ アンド アド レポート 2024」を基に、テレビ画面での動...