GPUは“銀の弾丸”ではないGPU依存は誤り

マーシュ博士は、「GPUに依存したデータ分析は間違っている」と明言する。このアプローチでは将来のデータ増加に対応できないという。ペタバイト、エクサバイト時代のデータ分析はどうなるのか。

2018年09月26日 08時00分 公開
[Adrian BridgwaterComputer Weekly]

 大量のデータ分析を必要とする将来は、GPUベースのレンダリングエンジンが担うのだろうか。少なくとも量子コンピューティングサービスがオンラインに登場するまでは。

 そうではないと主張するのはスティーブ・マーシュ博士だ。同博士は、英ケンブリッジを拠点とするGeoSpockの設立者兼最高技術責任者を務める。同社は、コンピュータのリアルタイムセンサーが生み出す情報を管理する大規模データセンター処理プラットフォームを提供している。

 地理空間分析企業のMapDは、大量のデータを分析するという問題を解決するためにGPUベースのレンダリングエンジンを活用している。それは、さらに強力な(法外に高額になることが多い)コンピュータコンポーネントを利用するという現在の市場傾向に従ったまでだという。だが、マーシュ博士はこの主張に不満を持っている。

 マーシュ博士ははっきりと、「この試みは間違っている」と話す。

 博士は、このアプローチが根本的な問題の解決になっていないと考えている。つまり、コンピュータが生成するデータセットが急激に増え、GPUのメモリ容量を大幅に上回ったらどう管理するのだろうと考える。

 「GPUベースのアプローチは現在のデータ量に辛うじて対処できているだけで、将来を保証するものではない。GPUやインメモリデータベースでこの問題に力ずくで対処していると、将来データ量がエクサバイト規模になったときに大きな課題に直面することになる」(マーシュ博士)

 高価なハードウェアは魅力的な表示を生み出すかもしれない。だが、最初の読み込みに時間がかかる上、容量はインメモリの数十GBに制限される。数十億のデータ行には不十分だというのが博士の主張だ。

 「つまり、この解決策は大量の分析に適していない。IoT、スマートシティー、自動運転車など、新たなユースケースで必要になるエクサバイト規模のデータや1兆行のデータセットを処理するために必要な規模に足りていない。急激に増加するデータの問題に対する、コストのかかる持続不可能な中途半端な答えでしかない」(マーシュ博士)

 博士の意見には、GPUが大量データの評価の「有望な基盤ではない」という主張が含まれている。

 なぜマーシュ博士は自信満々にこのように主張できるのだろうか。

 それは博士がコンピュータサイエンスの博士課程で、ニューラルシミュレーション用のカスタムベクトルプロセッサの設計を中心とする「GPGPU」(General Purpose Graphic Processing Units:GPUによる汎用計算)アーキテクチャに集中的に取り組んだためだ。

万能薬はない

 GPUの動作をマイクロアーキテクチャレベルで詳しく調査した結果、未加工の数値データの処理には適しているものの、大量のデータに対する利用には技術的、経済的に適していないことが明らかになった。




続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。






ITmedia マーケティング新着記事

news068.jpg

社会人1年目と2年目の意識調査2024 「出世したいと思わない」社会人1年生は44%、2年生は53%
ソニー生命保険が毎年実施している「社会人1年目と2年目の意識調査」の2024年版の結果です。

news202.jpg

KARTEに欲しい機能をAIの支援の下で開発 プレイドが「KARTE Craft」の一般提供を開始
サーバレスでKARTEに欲しい機能を、AIの支援の下で開発できる。

news136.png

ジェンダーレス消費の実態 男性向けメイクアップ需要が伸長
男性の間で美容に関する意識が高まりを見せています。カタリナ マーケティング ジャパン...