人工知能(AI)への2019年の投資額(欧州全域)は前年比49%増になる見込みだという。IDCのCustomer Insight & Analysisで上級リサーチアナリストを務めるアンドレア・ミノン氏は次のように話す。「Sephora、ASOS、Zaraといった多くの小売企業やNatWest(National Westminster Bank)、HSBCなどの銀行は、既にAIのメリットを実感している。来店者数と収益の増加、コスト削減、パーソナライズされたより快適な顧客体験などがその例だ」
CPUベースのコンピュータアーキテクチャは、機械学習タスクには適さないというのが業界共通の認識だ。現状では、GPUが機械学習の実行に必要なパフォーマンスを提供している。
だがWebを利用する大手企業はさらに高いレベルのパフォーマンスを必要とし、AIの処理を加速するカスタムアクセラレーションハードウェアを開発しつつある。Financial Timesが2019年2月に報じたFacebookの動向によると、Facebookは機械学習向けに独自チップを開発しているという。
2016年、GoogleはTPU(Tensor Processing Unit)というASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を公開した。機械学習に特化したチップで、DNN(Deep Neural Network)深層学習フレームワーク「TensorFlow」に最適化されている。
当時、Googleの卓越したハードウェアエンジニアだったノーマン・ジョアッピ氏は次のように述べている。「当社のデータセンターはTPUを既に1年以上運用しおり、1ワット当たりの機械学習パフォーマンスが桁違いに優れていることが分かっている。これは約7年後の未来(ムーアの法則の第三世代)の技術にほぼ匹敵する」
TPUは「Google Cloud Platform」(GCP)で利用できる。最上位バージョンの「v2-512 Cloud TPU v2 Pod」は現在αテスト中で、使用料はPodスライス/時間当たり384ドルだ(訳注)。
訳注:Googleの「Colaboratory」で(若干制限はあるが)GPUとTPUを無料で使うことができる。Colaboratoryは不定期に仕様が変更されておりGPUやTPUの詳細も公表されていないが、2019年4月末時点のGPUは「NVIDIA Tesla T4」(nvidia-smiコマンドで確認可能)。
ASICは特定アプリケーションの実行専用に設計する。TPUの場合はTensorFlow DNNモジュールがこれに当たる。そのため極めて高額になり、用途も限定される。「Microsoft Azure」はFPGA(Field Programmable Gate Array)を使ってアクセラレーションを提供している(訳注)。Microsoftによると、FPGAはASICに近いパフォーマンスを実現するという。
「FPGAは新しいロジックの実装や再構成が可能になる。ハードウェアアクセラレーションを利用する機械学習アーキテクチャを当社は『Brainwave』と呼んでいる。これはIntelのFPGAをベースに『データサイエンティストや開発者がリアルタイムAI演算を高速化できる』ようにしている」(Microsoft談)
訳注:ASICは回路設計の段階で目的に最適化してチップを製造するのに対し、FPGAは論理回路をソフトウェア的に変更できる。
機械学習を高速化しようと考える多くの組織の出発点となるのは、ほぼ間違いなくGPUだ。
続きを読むには、[続きを読む]ボタンを押して
会員登録あるいはログインしてください。
営業デジタル化の始め方(無料eBook)
「ITmedia マーケティング」では、気になるマーケティングトレンドをeBookにまとめて不定...
「RED」「Bilibili」「Douyin」他 中国の主要SNSプラットフォームの特徴まとめ
トレンド変化の大きい中国においてマーケティングを成功させるためには、主要SNSプラット...
コロナ禍における「ご自愛消費」の現状――スナックミー調査
「ご自愛消費」として最も多いのは「スイーツやおやつ」で全体の68%。その他、ランチ38...