マーシュ博士は、「GPUに依存したデータ分析は間違っている」と明言する。このアプローチでは将来のデータ増加に対応できないという。ペタバイト、エクサバイト時代のデータ分析はどうなるのか。
大量のデータ分析を必要とする将来は、GPUベースのレンダリングエンジンが担うのだろうか。少なくとも量子コンピューティングサービスがオンラインに登場するまでは。
そうではないと主張するのはスティーブ・マーシュ博士だ。同博士は、英ケンブリッジを拠点とするGeoSpockの設立者兼最高技術責任者を務める。同社は、コンピュータのリアルタイムセンサーが生み出す情報を管理する大規模データセンター処理プラットフォームを提供している。
地理空間分析企業のMapDは、大量のデータを分析するという問題を解決するためにGPUベースのレンダリングエンジンを活用している。それは、さらに強力な(法外に高額になることが多い)コンピュータコンポーネントを利用するという現在の市場傾向に従ったまでだという。だが、マーシュ博士はこの主張に不満を持っている。
マーシュ博士ははっきりと、「この試みは間違っている」と話す。
博士は、このアプローチが根本的な問題の解決になっていないと考えている。つまり、コンピュータが生成するデータセットが急激に増え、GPUのメモリ容量を大幅に上回ったらどう管理するのだろうと考える。
「GPUベースのアプローチは現在のデータ量に辛うじて対処できているだけで、将来を保証するものではない。GPUやインメモリデータベースでこの問題に力ずくで対処していると、将来データ量がエクサバイト規模になったときに大きな課題に直面することになる」(マーシュ博士)
高価なハードウェアは魅力的な表示を生み出すかもしれない。だが、最初の読み込みに時間がかかる上、容量はインメモリの数十GBに制限される。数十億のデータ行には不十分だというのが博士の主張だ。
「つまり、この解決策は大量の分析に適していない。IoT、スマートシティー、自動運転車など、新たなユースケースで必要になるエクサバイト規模のデータや1兆行のデータセットを処理するために必要な規模に足りていない。急激に増加するデータの問題に対する、コストのかかる持続不可能な中途半端な答えでしかない」(マーシュ博士)
博士の意見には、GPUが大量データの評価の「有望な基盤ではない」という主張が含まれている。
なぜマーシュ博士は自信満々にこのように主張できるのだろうか。
それは博士がコンピュータサイエンスの博士課程で、ニューラルシミュレーション用のカスタムベクトルプロセッサの設計を中心とする「GPGPU」(General Purpose Graphic Processing Units:GPUによる汎用計算)アーキテクチャに集中的に取り組んだためだ。
GPUの動作をマイクロアーキテクチャレベルで詳しく調査した結果、未加工の数値データの処理には適しているものの、大量のデータに対する利用には技術的、経済的に適していないことが明らかになった。
続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。
アドビ、Adobe Firefly機能搭載の「Adobe Express」モバイル版アプリを一般提供
アドビは、生成AI「Adobe Firefly」の機能を利用できる「Adobe Express」モバイル版アプ...
2度あることは3度あった GoogleのサードパーティーCookie廃止再延期にアドテク各社がコメント
Googleは2024年末までに完了する予定だったWebブラウザ「Chrome」でのサードパーティーCo...
天候と位置情報を活用 ルグランとジオロジックが新たな広告サービスを共同開発
ルグランとジオロジックが新たな「天気連動型広告」を共同開発した。ルグランが気象デー...