「演算能力とデータが増えれば、データを学習する本質的にシンプルなプログラムで高性能なアルゴリズムになり、根本的なブレークスルーを生み出せる」と話すのは、英国を拠点とする新興チップメーカーGraphcoreの共同設立者兼CEOを務めるナイジェル・トゥーン氏だ。
こうした動きは、自然言語処理(NLP)の分野で始まっている。2019年5月、Googleの研究者が「BERT」(Bidirectional Encoder Representations from Transformers)という双方向Transformerに関する論文を発表した(訳注)。BERTは、事前学習した大量のコーパス(言語情報)をベースとした汎用(はんよう)的な言語モデルで、感情分析をはじめとするNLPを向上させる道を切り開くと期待されている。
訳注:BERT自体は2018年10月11日に発表されている。また、BERTのベースとなるTransformerもGoogleが発表したニューラルネットワークで、LSTMに代表されるRNNが主流だったNLPを一歩前進させるものとして注目されている。
こうしたネットワークが利用するモデルではパラメーター数が増大する。その数が数億にも達することがあるため、演算には新たなパラダイムが必要になる。
業界でAI利用への関心が高まっていると感じたトゥーン氏が、サイモン・ノールズ氏と共同でGraphcoreを設立したのは2016年のことだ。同社は、自社が名付けた「Intelligence Processing Unit」(IPU)の開発を目指している。
トゥーン氏によると、「マシンインテリジェンス」の実現を妨げる問題を幾つか解決するためにIPUを設計したという。
「現状のマシンインテリジェンスを見ると、主に静的データを分類し、ラベル付けした大量のデータを使ってシステムをトレーニングしている。このシステムは、経験から学ぶことはない」(トゥーン氏)
同氏はNLPを例に挙げて次のように話す。「本当に必要なのは、単語の並び、各単語の意味、そして会話の文脈を理解するマシンだ。マシンは会話の文脈を記憶し、記憶した文脈を使ってその後の会話を理解する」
IPUは処理速度と効率を向上させるために、IPU自体が機械学習モデルとデータを保持する。遅延を最小限に抑えるため、IPUには外部メモリを配置しない。「大容量メモリが離れた位置にある場合、後からストリーミングすることは可能だ。だが演算中は全てのデータをプロセッサ内に保持する」とトゥーン氏は話す。
各IPUは1216の特殊コアを備える。各コアには6つの独立したプログラムスレッドがあり、機械学習モデルで並列に動作する。IPUは125TFLOPSの演算性能を実現する。
「そのため、モデルをレイヤー別ではなく複数のレイヤー全体で見ている。さらには、一つの問題を解決するために、複数のIPUを連携させることもできる。状況を把握し、複数のプロセッサで多数の並列処理を行うことができる」(トゥーン氏)
トゥーン氏によると、IPUのアーキテクチャはトレーニングにも推論にも適しているという。現在の機械学習は、トレーニングと推論を独立したタスクとして扱うことが多い。
「今後、経験から学ぶ確率的なシステムが実現すれば、そのシステムは導入後も経験から学び続けるだろう。そうなればトレーニングと推論の境界はなくなる」と同氏は話す。
ソフトウェア面では、IPUは「TensorFlow」などの著名な機械学習フレームワーク(訳注)やGraphcore独自のグラフフレームワークをサポートする。このフレームワークを使って、開発者がライブラリ関数やニューラルネットワーク機能を独自に開発できる。
訳注:Graphcoreの資料には、TensorFlowの他に「PyTorch」や「MXNet」をサポートするとある。
Graphcoreは設立以来3億ドル(約321億円)の資金を調達してきた。同社は貸借対照表上多くの現金を保有し、2020年には多くの収益を得ることを期待しているとトゥーン氏は述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
売上高100億円以上の企業に調査 生成AIの「マーケティング」への活用意向は?
ウイングアーク1stは、売上高100億以上の企業に勤務する部長などのマネジメント層535...
Instagramでバカ正直に「広告」を明示するとリーチが下がる? 責任者の回答は……
Instagramの責任者であるアダム・モッセーリ氏は、自身のアカウントでの情報発信シリーズ...
Xは? TikTokは? Metaは? トランプ氏勝利で笑うソーシャル、泣くソーシャル
4年ぶり2度目のトランプ政権が実現することで、主要ソーシャルメディア各社はどのような...