人工知能(AI)への2019年の投資額(欧州全域)は前年比49%増になる見込みだという。IDCのCustomer Insight & Analysisで上級リサーチアナリストを務めるアンドレア・ミノン氏は次のように話す。「Sephora、ASOS、Zaraといった多くの小売企業やNatWest(National Westminster Bank)、HSBCなどの銀行は、既にAIのメリットを実感している。来店者数と収益の増加、コスト削減、パーソナライズされたより快適な顧客体験などがその例だ」
CPUベースのコンピュータアーキテクチャは、機械学習タスクには適さないというのが業界共通の認識だ。現状では、GPUが機械学習の実行に必要なパフォーマンスを提供している。
だがWebを利用する大手企業はさらに高いレベルのパフォーマンスを必要とし、AIの処理を加速するカスタムアクセラレーションハードウェアを開発しつつある。Financial Timesが2019年2月に報じたFacebookの動向によると、Facebookは機械学習向けに独自チップを開発しているという。
2016年、GoogleはTPU(Tensor Processing Unit)というASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を公開した。機械学習に特化したチップで、DNN(Deep Neural Network)深層学習フレームワーク「TensorFlow」に最適化されている。
当時、Googleの卓越したハードウェアエンジニアだったノーマン・ジョアッピ氏は次のように述べている。「当社のデータセンターはTPUを既に1年以上運用しおり、1ワット当たりの機械学習パフォーマンスが桁違いに優れていることが分かっている。これは約7年後の未来(ムーアの法則の第三世代)の技術にほぼ匹敵する」
TPUは「Google Cloud Platform」(GCP)で利用できる。最上位バージョンの「v2-512 Cloud TPU v2 Pod」は現在αテスト中で、使用料はPodスライス/時間当たり384ドルだ(訳注)。
訳注:Googleの「Colaboratory」で(若干制限はあるが)GPUとTPUを無料で使うことができる。Colaboratoryは不定期に仕様が変更されておりGPUやTPUの詳細も公表されていないが、2019年4月末時点のGPUは「NVIDIA Tesla T4」(nvidia-smiコマンドで確認可能)。
ASICは特定アプリケーションの実行専用に設計する。TPUの場合はTensorFlow DNNモジュールがこれに当たる。そのため極めて高額になり、用途も限定される。「Microsoft Azure」はFPGA(Field Programmable Gate Array)を使ってアクセラレーションを提供している(訳注)。Microsoftによると、FPGAはASICに近いパフォーマンスを実現するという。
「FPGAは新しいロジックの実装や再構成が可能になる。ハードウェアアクセラレーションを利用する機械学習アーキテクチャを当社は『Brainwave』と呼んでいる。これはIntelのFPGAをベースに『データサイエンティストや開発者がリアルタイムAI演算を高速化できる』ようにしている」(Microsoft談)
訳注:ASICは回路設計の段階で目的に最適化してチップを製造するのに対し、FPGAは論理回路をソフトウェア的に変更できる。
機械学習を高速化しようと考える多くの組織の出発点となるのは、ほぼ間違いなくGPUだ。
続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。

外出自粛でテレビ視聴時間の伸び率が最も大きいのは20〜24歳――スイッチ・メディア・ラボ調査
新型コロナウイルス感染拡大による生活の変化はテレビの視聴時間にどう影響したのでしょ...

データに基づく意思決定ができる企業の組織と文化
アナリティクスとデータ活用の将来を左右する主要トレンドを分析したTableau Softwareの...

コロナ禍の生活自由度、普段の暮らしを100点とすると54.3点――博報堂生活総合研究所調査
「第1回 新型コロナウイルスに関する生活者調査」(2020年4月)の結果です。