Cerebras SystemsのAI専用巨大チップ、性能もモンスター級:面積はB5用紙とほぼ同じ
Cerebrasが、「チップ」の概念を覆す巨大なAI専用チップを発表した。B5用紙に匹敵する面積の「Wafer Scale Engine」は性能もすさまじい。
米サンフランシスコを拠点とするスタートアップ企業Cerebras Systems(以下Cerebras)は、人工知能(AI)向けに最適化したチップ「Cerebras Wafer Scale Engine」(WSE)を発表した。同社によると、これは1兆を超えるトランジスタ数を誇る業界初のチップだという。WSEのサイズは4万6225平方ミリで、これは最も大きなGPUの56.7倍に相当する。
GPUベースのAIアクセラレーションと比べると、WSEは3000倍以上の高速オンチップメモリを備え、1万倍以上のメモリ帯域幅を有すると同社は発表している。
Cerebrasによると、チップのサイズが大きいほど情報の処理が高速になり、回答の生成にかかる時間が短くなるという。洞察を得るまでの時間、つまり「トレーニング時間」を短縮すれば、リサーチ担当者はより多くのアイデアをテストし、より多くのデータを利用して新しい問題を解決できるというのが同社の見解だ。
関連記事
- AlibabaのCNN向けディープラーニングプロセッサの全貌
- 機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦
- GPUより低コスト、ハイパフォーマンスのFPGAが抱える“泣きどころ”
- AIの拡大で増大するカスタムハードウェア需要
- Google、Microsoft、Facebookのディープラーニングフレームワーク
「WSEは、AI向けに一から設計し、レチクル接続、歩留まり、電源供給、パッケージなど、数十年もの間チップサイズを制限していた技術上の課題を解決することで、同チップを最先端へと押し上げる抜本的なイノベーションを取り入れている」と話すのは、Cerebrasの創設者兼CEOのアンドリュー・フェルドマン氏だ。
「WSEは計算と通信の速度を向上させることで、トレーニング時間を短縮する。最も大きなGPUの56.7倍以上のシリコン領域を用意することで計算を実行するコア数を増やし、そのコアに多くのメモリを近接させ、コアが効率的に演算できるようにしている」と同社は説明する。
「このように膨大な数のコアとメモリが単一のチップに存在するため、全ての通信がシリコン上で行われる。つまり低遅延通信帯域幅が非常に大きくなるため、コアのグループが最高の効率で連携し、メモリ帯域幅がボトルネックにならなくなる」
WSEの4万6225平方ミリのシリコンには、AI向けに最適化された40万のコンピューティングコアと18GBの分散ローカルメモリが収容されている。メモリ帯域幅は1秒当たり9P(ペタ)Bになる。各コアは、全てがハードウェアの微細なオンチップメッシュ接続通信ネットワークで相互にリンクされ、1秒当たり100Pbitの総帯域幅を実現する。
Copyright © ITmedia, Inc. All Rights Reserved.