2018年09月26日 08時00分 公開
特集/連載

GPUは“銀の弾丸”ではないGPU依存は誤り

マーシュ博士は、「GPUに依存したデータ分析は間違っている」と明言する。このアプローチでは将来のデータ増加に対応できないという。ペタバイト、エクサバイト時代のデータ分析はどうなるのか。

[Adrian Bridgwater,Computer Weekly]

 大量のデータ分析を必要とする将来は、GPUベースのレンダリングエンジンが担うのだろうか。少なくとも量子コンピューティングサービスがオンラインに登場するまでは。

 そうではないと主張するのはスティーブ・マーシュ博士だ。同博士は、英ケンブリッジを拠点とするGeoSpockの設立者兼最高技術責任者を務める。同社は、コンピュータのリアルタイムセンサーが生み出す情報を管理する大規模データセンター処理プラットフォームを提供している。

 地理空間分析企業のMapDは、大量のデータを分析するという問題を解決するためにGPUベースのレンダリングエンジンを活用している。それは、さらに強力な(法外に高額になることが多い)コンピュータコンポーネントを利用するという現在の市場傾向に従ったまでだという。だが、マーシュ博士はこの主張に不満を持っている。

 マーシュ博士ははっきりと、「この試みは間違っている」と話す。

 博士は、このアプローチが根本的な問題の解決になっていないと考えている。つまり、コンピュータが生成するデータセットが急激に増え、GPUのメモリ容量を大幅に上回ったらどう管理するのだろうと考える。

 「GPUベースのアプローチは現在のデータ量に辛うじて対処できているだけで、将来を保証するものではない。GPUやインメモリデータベースでこの問題に力ずくで対処していると、将来データ量がエクサバイト規模になったときに大きな課題に直面することになる」(マーシュ博士)

 高価なハードウェアは魅力的な表示を生み出すかもしれない。だが、最初の読み込みに時間がかかる上、容量はインメモリの数十GBに制限される。数十億のデータ行には不十分だというのが博士の主張だ。

 「つまり、この解決策は大量の分析に適していない。IoT、スマートシティー、自動運転車など、新たなユースケースで必要になるエクサバイト規模のデータや1兆行のデータセットを処理するために必要な規模に足りていない。急激に増加するデータの問題に対する、コストのかかる持続不可能な中途半端な答えでしかない」(マーシュ博士)

 博士の意見には、GPUが大量データの評価の「有望な基盤ではない」という主張が含まれている。

 なぜマーシュ博士は自信満々にこのように主張できるのだろうか。

 それは博士がコンピュータサイエンスの博士課程で、ニューラルシミュレーション用のカスタムベクトルプロセッサの設計を中心とする「GPGPU」(General Purpose Graphic Processing Units:GPUによる汎用計算)アーキテクチャに集中的に取り組んだためだ。

万能薬はない

 GPUの動作をマイクロアーキテクチャレベルで詳しく調査した結果、未加工の数値データの処理には適しているものの、大量のデータに対する利用には技術的、経済的に適していないことが明らかになった。




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news045.jpg

「ファッションテック」から「3密回避」まで データによる価値創造と課題解決の考え方
気象データを活用してファッションコーデを提案するサービスをデジタルエージェンシーの...

news153.jpg

脳波計測で判明 Twitterを使いながら番組を見る人は満足度が高い――Twitter Japan調査
脳波を活用した感性把握技術を活用して「テレビとTwitter」の関係について分析しています。

news058.jpg

旅行業界のデジタルシフトと「Go To トラベル」後の課題 びゅうトラベルサービスに聞く
列車旅の拡大活性化を目指してデジタルシフトを進めるJR東日本グループの旅行会社びゅう...