Cerebras SystemsのAI専用巨大チップ、性能もモンスター級面積はB5用紙とほぼ同じ

Cerebrasが、「チップ」の概念を覆す巨大なAI専用チップを発表した。B5用紙に匹敵する面積の「Wafer Scale Engine」は性能もすさまじい。

2019年10月04日 08時00分 公開
[Cliff SaranComputer Weekly]

 米サンフランシスコを拠点とするスタートアップ企業Cerebras Systems(以下Cerebras)は、人工知能(AI)向けに最適化したチップ「Cerebras Wafer Scale Engine」(WSE)を発表した。同社によると、これは1兆を超えるトランジスタ数を誇る業界初のチップだという。WSEのサイズは4万6225平方ミリで、これは最も大きなGPUの56.7倍に相当する。

 GPUベースのAIアクセラレーションと比べると、WSEは3000倍以上の高速オンチップメモリを備え、1万倍以上のメモリ帯域幅を有すると同社は発表している。

 Cerebrasによると、チップのサイズが大きいほど情報の処理が高速になり、回答の生成にかかる時間が短くなるという。洞察を得るまでの時間、つまり「トレーニング時間」を短縮すれば、リサーチ担当者はより多くのアイデアをテストし、より多くのデータを利用して新しい問題を解決できるというのが同社の見解だ。

 「WSEは、AI向けに一から設計し、レチクル接続、歩留まり、電源供給、パッケージなど、数十年もの間チップサイズを制限していた技術上の課題を解決することで、同チップを最先端へと押し上げる抜本的なイノベーションを取り入れている」と話すのは、Cerebrasの創設者兼CEOのアンドリュー・フェルドマン氏だ。

 「WSEは計算と通信の速度を向上させることで、トレーニング時間を短縮する。最も大きなGPUの56.7倍以上のシリコン領域を用意することで計算を実行するコア数を増やし、そのコアに多くのメモリを近接させ、コアが効率的に演算できるようにしている」と同社は説明する。

 「このように膨大な数のコアとメモリが単一のチップに存在するため、全ての通信がシリコン上で行われる。つまり低遅延通信帯域幅が非常に大きくなるため、コアのグループが最高の効率で連携し、メモリ帯域幅がボトルネックにならなくなる」

 WSEの4万6225平方ミリのシリコンには、AI向けに最適化された40万のコンピューティングコアと18GBの分散ローカルメモリが収容されている。メモリ帯域幅は1秒当たり9P(ペタ)Bになる。各コアは、全てがハードウェアの微細なオンチップメッシュ接続通信ネットワークで相互にリンクされ、1秒当たり100Pbitの総帯域幅を実現する。

Copyright © ITmedia, Inc. All Rights Reserved.

From Informa TechTarget

お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。

ITmedia マーケティング新着記事

news066.jpg

Metaに潰されないために残された生き残りの道は?――2025年のSNS大予測(Snapchat編)
若年層に人気のSnapchatだが、大人にはあまり浸透していない。一方で、AR(拡張現実)開...

news150.jpg

「猛暑」「米騒動」「インバウンド」の影響は? 2024年に最も売り上げが伸びたものランキング
小売店の推定販売金額の伸びから、日用消費財の中で何が売れたのかを振り返るランキング...

news110.jpg

Netflixコラボが止まらない 「イカゲーム」シーズン2公開で人気爆上がり必至のアプリとは?
Duolingoは言語学習アプリとNetflixの大人気ドラマを結び付けたキャンペーンを展開。屋外...