2018年09月26日 08時00分 公開
特集/連載

GPUは“銀の弾丸”ではないGPU依存は誤り

マーシュ博士は、「GPUに依存したデータ分析は間違っている」と明言する。このアプローチでは将来のデータ増加に対応できないという。ペタバイト、エクサバイト時代のデータ分析はどうなるのか。

[Adrian Bridgwater,Computer Weekly]

 大量のデータ分析を必要とする将来は、GPUベースのレンダリングエンジンが担うのだろうか。少なくとも量子コンピューティングサービスがオンラインに登場するまでは。

 そうではないと主張するのはスティーブ・マーシュ博士だ。同博士は、英ケンブリッジを拠点とするGeoSpockの設立者兼最高技術責任者を務める。同社は、コンピュータのリアルタイムセンサーが生み出す情報を管理する大規模データセンター処理プラットフォームを提供している。

 地理空間分析企業のMapDは、大量のデータを分析するという問題を解決するためにGPUベースのレンダリングエンジンを活用している。それは、さらに強力な(法外に高額になることが多い)コンピュータコンポーネントを利用するという現在の市場傾向に従ったまでだという。だが、マーシュ博士はこの主張に不満を持っている。

 マーシュ博士ははっきりと、「この試みは間違っている」と話す。

 博士は、このアプローチが根本的な問題の解決になっていないと考えている。つまり、コンピュータが生成するデータセットが急激に増え、GPUのメモリ容量を大幅に上回ったらどう管理するのだろうと考える。

 「GPUベースのアプローチは現在のデータ量に辛うじて対処できているだけで、将来を保証するものではない。GPUやインメモリデータベースでこの問題に力ずくで対処していると、将来データ量がエクサバイト規模になったときに大きな課題に直面することになる」(マーシュ博士)

 高価なハードウェアは魅力的な表示を生み出すかもしれない。だが、最初の読み込みに時間がかかる上、容量はインメモリの数十GBに制限される。数十億のデータ行には不十分だというのが博士の主張だ。

 「つまり、この解決策は大量の分析に適していない。IoT、スマートシティー、自動運転車など、新たなユースケースで必要になるエクサバイト規模のデータや1兆行のデータセットを処理するために必要な規模に足りていない。急激に増加するデータの問題に対する、コストのかかる持続不可能な中途半端な答えでしかない」(マーシュ博士)

 博士の意見には、GPUが大量データの評価の「有望な基盤ではない」という主張が含まれている。

 なぜマーシュ博士は自信満々にこのように主張できるのだろうか。

 それは博士がコンピュータサイエンスの博士課程で、ニューラルシミュレーション用のカスタムベクトルプロセッサの設計を中心とする「GPGPU」(General Purpose Graphic Processing Units:GPUによる汎用計算)アーキテクチャに集中的に取り組んだためだ。

万能薬はない

 GPUの動作をマイクロアーキテクチャレベルで詳しく調査した結果、未加工の数値データの処理には適しているものの、大量のデータに対する利用には技術的、経済的に適していないことが明らかになった。




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news154.jpg

孫消費急減、女性のLINE利用増――ソニー生命「シニアの生活意識調査2020」
毎年恒例の「シニアの生活意識調査」。2020年のシニアの傾向はどうなっているでしょう。

news137.jpg

米大統領選を巡る「アプリ対決」のゆくえ 「Trump 2020」 vs. 「Vote Joe」と「TikTok」 vs. 「Triller」
米国では2020年月の大統領選挙を前に選挙戦がますます活発化しています。関連するアプリ...

news143.jpg

店舗の滞在時間が減少、「20分未満」が約1.5倍に――凸版印刷とONE COMPATHが5万人買い物調査
電子チラシ「Shufoo!」を利用する全国の男女5万人を対象に実施した買い物に関する意識調...