GPUは“銀の弾丸”ではない:GPU依存は誤り
マーシュ博士は、「GPUに依存したデータ分析は間違っている」と明言する。このアプローチでは将来のデータ増加に対応できないという。ペタバイト、エクサバイト時代のデータ分析はどうなるのか。
大量のデータ分析を必要とする将来は、GPUベースのレンダリングエンジンが担うのだろうか。少なくとも量子コンピューティングサービスがオンラインに登場するまでは。
そうではないと主張するのはスティーブ・マーシュ博士だ。同博士は、英ケンブリッジを拠点とするGeoSpockの設立者兼最高技術責任者を務める。同社は、コンピュータのリアルタイムセンサーが生み出す情報を管理する大規模データセンター処理プラットフォームを提供している。
地理空間分析企業のMapDは、大量のデータを分析するという問題を解決するためにGPUベースのレンダリングエンジンを活用している。それは、さらに強力な(法外に高額になることが多い)コンピュータコンポーネントを利用するという現在の市場傾向に従ったまでだという。だが、マーシュ博士はこの主張に不満を持っている。
マーシュ博士ははっきりと、「この試みは間違っている」と話す。
博士は、このアプローチが根本的な問題の解決になっていないと考えている。つまり、コンピュータが生成するデータセットが急激に増え、GPUのメモリ容量を大幅に上回ったらどう管理するのだろうと考える。
「GPUベースのアプローチは現在のデータ量に辛うじて対処できているだけで、将来を保証するものではない。GPUやインメモリデータベースでこの問題に力ずくで対処していると、将来データ量がエクサバイト規模になったときに大きな課題に直面することになる」(マーシュ博士)
高価なハードウェアは魅力的な表示を生み出すかもしれない。だが、最初の読み込みに時間がかかる上、容量はインメモリの数十GBに制限される。数十億のデータ行には不十分だというのが博士の主張だ。
「つまり、この解決策は大量の分析に適していない。IoT、スマートシティー、自動運転車など、新たなユースケースで必要になるエクサバイト規模のデータや1兆行のデータセットを処理するために必要な規模に足りていない。急激に増加するデータの問題に対する、コストのかかる持続不可能な中途半端な答えでしかない」(マーシュ博士)
博士の意見には、GPUが大量データの評価の「有望な基盤ではない」という主張が含まれている。
なぜマーシュ博士は自信満々にこのように主張できるのだろうか。
それは博士がコンピュータサイエンスの博士課程で、ニューラルシミュレーション用のカスタムベクトルプロセッサの設計を中心とする「GPGPU」(General Purpose Graphic Processing Units:GPUによる汎用計算)アーキテクチャに集中的に取り組んだためだ。
万能薬はない
GPUの動作をマイクロアーキテクチャレベルで詳しく調査した結果、未加工の数値データの処理には適しているものの、大量のデータに対する利用には技術的、経済的に適していないことが明らかになった。
*** 一部省略されたコンテンツがあります。PC版でご覧ください。 ***
関連記事
GPUを超える「IPU」(Intelligence Processing Unit)は実現するか?
GPUより低コスト、ハイパフォーマンスのFPGAが抱える“泣きどころ”
2020年版:IntelとArmのCPU市場ポジションと動向
機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦
Copyright © ITmedia, Inc. All Rights Reserved.