2019年10月04日 08時00分 公開
特集/連載

Cerebras SystemsのAI専用巨大チップ、性能もモンスター級面積はB5用紙とほぼ同じ

Cerebrasが、「チップ」の概念を覆す巨大なAI専用チップを発表した。B5用紙に匹敵する面積の「Wafer Scale Engine」は性能もすさまじい。

[Cliff Saran,Computer Weekly]

 米サンフランシスコを拠点とするスタートアップ企業Cerebras Systems(以下Cerebras)は、人工知能(AI)向けに最適化したチップ「Cerebras Wafer Scale Engine」(WSE)を発表した。同社によると、これは1兆を超えるトランジスタ数を誇る業界初のチップだという。WSEのサイズは4万6225平方ミリで、これは最も大きなGPUの56.7倍に相当する。

 GPUベースのAIアクセラレーションと比べると、WSEは3000倍以上の高速オンチップメモリを備え、1万倍以上のメモリ帯域幅を有すると同社は発表している。

 Cerebrasによると、チップのサイズが大きいほど情報の処理が高速になり、回答の生成にかかる時間が短くなるという。洞察を得るまでの時間、つまり「トレーニング時間」を短縮すれば、リサーチ担当者はより多くのアイデアをテストし、より多くのデータを利用して新しい問題を解決できるというのが同社の見解だ。

 「WSEは、AI向けに一から設計し、レチクル接続、歩留まり、電源供給、パッケージなど、数十年もの間チップサイズを制限していた技術上の課題を解決することで、同チップを最先端へと押し上げる抜本的なイノベーションを取り入れている」と話すのは、Cerebrasの創設者兼CEOのアンドリュー・フェルドマン氏だ。

 「WSEは計算と通信の速度を向上させることで、トレーニング時間を短縮する。最も大きなGPUの56.7倍以上のシリコン領域を用意することで計算を実行するコア数を増やし、そのコアに多くのメモリを近接させ、コアが効率的に演算できるようにしている」と同社は説明する。

 「このように膨大な数のコアとメモリが単一のチップに存在するため、全ての通信がシリコン上で行われる。つまり低遅延通信帯域幅が非常に大きくなるため、コアのグループが最高の効率で連携し、メモリ帯域幅がボトルネックにならなくなる」

 WSEの4万6225平方ミリのシリコンには、AI向けに最適化された40万のコンピューティングコアと18GBの分散ローカルメモリが収容されている。メモリ帯域幅は1秒当たり9P(ペタ)Bになる。各コアは、全てがハードウェアの微細なオンチップメッシュ接続通信ネットワークで相互にリンクされ、1秒当たり100Pbitの総帯域幅を実現する。

ITmedia マーケティング新着記事

news152.jpg

よく分かる「デジタルネイティブ」入門(無料eBook)
「ITmedia マーケティング」では、気になるマーケティングトレンドをeBookにまとめて不定...

news056.jpg

マーケターの87%がサードパーティーCookie利用規制の影響を実感――イルグルム調査
広告主はWeb広告の効果においてCookieの利用規制の影響を感じているようです。

news122.jpg

2021年ホリデーシーズンにおける米国オンライン消費額、サプライチェーン危機にもかかわらず過去最大を更新
「Adobe Digital Economy Index」によると、米国の2021年のホリデーシーズンにおけるオン...