複雑な計算処理や膨大なデータの活用手段に「ハイパフォーマンスコンピューティング」(HPC)がある。HPCが必要かどうかを判断するに当たって、まずはクラスタなどHPCの基本を知ることが欠かせない。
「ハイパフォーマンスコンピューティング」(HPC)は、数学の難題に挑戦する方法として誕生した。それから数十年が経過し、2021年現在はさまざまな組織が複雑な問題を解決するためにHPCを利用している。金融リスクのモデリング、宇宙船の飛行解析、数々のビッグデータ活用プロジェクトなどがその例だ。HPCは多数のコンピュータを相互に接続することで、単体のコンピュータでは負荷が大き過ぎて処理できない仕事を実行する。
HPCを利用する際、リースや購入を選択する企業もあれば、自社データセンター内に自前のインフラを構築する企業もあるだろう。HPCが自社に適しているかどうかや、その最適な実装方法を見極めるには、HPCの要件や制約となる要素を理解する必要がある。まずはHPCがどのようなコンピューティングなのか、基本から見ていこう。
◆
簡単に言えば、HPCとは高負荷の計算処理を効率良く処理するために設計された、大規模で処理の高速なコンピュータを使うことだ。「スーパーコンピュータ」と称されるHPCも存在する。だがそうしたHPCは、極めて規模の大きな企業でなければ手の届かない存在だ。
大半の企業は比較的安価なコンピュータの集合によってHPCを実装している。サーバをグループ化したHPCのクラスタでは、「Apache Hadoop」や「MapReduce」といった分散処理フレームワークを使用する。複数のコンピュータ間で計算タスクを分散させることで、複雑な計算処理を高速に実行する。分割して処理した計算やデータは、分散処理のフレームワーク(特定の設計思想に基づくプログラム部品やドキュメントの集合体)によって再統合される。
HPCに分散処理フレームワークを使用することのメリットの一つは拡張性だ。Apache Hadoopは1台のサーバだけでも機能し、数千台のサーバにスケールアウトすることもできる。簡単に入手可能な汎用(はんよう)のサーバを使用して、現在のニーズに応じた規模で導入し、将来のニーズに合わせて拡張することも可能だ。
耐障害性もApache Hadoopを利用するメリットになる。障害が発生した場合、問題のシステムを検出してクラスタから切り離し、失敗した処理を別の利用可能なシステムに担わせる。
こうしたHPCのクラスタ構築は技術的に難しいものではない。一方ビジネス面での課題が浮上することがある。分散処理フレームワークを使うことでサーバを段階的に拡張できるものの、数十台、数百台、数千台と増えるのに従い、サーバやネットワークの調達や保守に多額を要することになる。
大半の企業において、HPCを必要とするのは特定の用途に限られている。これも問題になる可能性がある。HPCを利用するには調達やスタッフのトレーニングに多額のコストが必要になる。それに見合った活用ができるのかどうかを検討しなければならない。
HPCの利用を成功させるには、用途やリソースの使用率、投資利益率(ROI)などを徹底的に検討する必要がある。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
マーケ担当者はなぜ「広報」を誤解するのか?
「マーケティング」と「広報」活動は似て非なるもの。この連載では2つの業務を兼務する人...
「Metaが本当に腹立たしいのは……」 SnapのCEOがぶっちゃけトークでライバルに痛烈皮肉
SnapのCEO、エヴァン・シュピーゲル氏がソーシャルメディアの進化について、自身の考えを...
SNSの古い常識を疑え!(無料eBook)
ハッシュタグ満載の投稿は時代遅れ。外部サイトへのリンクはいくらシェアしても以前ほど...