Cerebras SystemsのAI専用巨大チップ、性能もモンスター級面積はB5用紙とほぼ同じ

Cerebrasが、「チップ」の概念を覆す巨大なAI専用チップを発表した。B5用紙に匹敵する面積の「Wafer Scale Engine」は性能もすさまじい。

2019年10月04日 08時00分 公開
[Cliff SaranComputer Weekly]

 米サンフランシスコを拠点とするスタートアップ企業Cerebras Systems(以下Cerebras)は、人工知能(AI)向けに最適化したチップ「Cerebras Wafer Scale Engine」(WSE)を発表した。同社によると、これは1兆を超えるトランジスタ数を誇る業界初のチップだという。WSEのサイズは4万6225平方ミリで、これは最も大きなGPUの56.7倍に相当する。

 GPUベースのAIアクセラレーションと比べると、WSEは3000倍以上の高速オンチップメモリを備え、1万倍以上のメモリ帯域幅を有すると同社は発表している。

 Cerebrasによると、チップのサイズが大きいほど情報の処理が高速になり、回答の生成にかかる時間が短くなるという。洞察を得るまでの時間、つまり「トレーニング時間」を短縮すれば、リサーチ担当者はより多くのアイデアをテストし、より多くのデータを利用して新しい問題を解決できるというのが同社の見解だ。

 「WSEは、AI向けに一から設計し、レチクル接続、歩留まり、電源供給、パッケージなど、数十年もの間チップサイズを制限していた技術上の課題を解決することで、同チップを最先端へと押し上げる抜本的なイノベーションを取り入れている」と話すのは、Cerebrasの創設者兼CEOのアンドリュー・フェルドマン氏だ。

 「WSEは計算と通信の速度を向上させることで、トレーニング時間を短縮する。最も大きなGPUの56.7倍以上のシリコン領域を用意することで計算を実行するコア数を増やし、そのコアに多くのメモリを近接させ、コアが効率的に演算できるようにしている」と同社は説明する。

 「このように膨大な数のコアとメモリが単一のチップに存在するため、全ての通信がシリコン上で行われる。つまり低遅延通信帯域幅が非常に大きくなるため、コアのグループが最高の効率で連携し、メモリ帯域幅がボトルネックにならなくなる」

 WSEの4万6225平方ミリのシリコンには、AI向けに最適化された40万のコンピューティングコアと18GBの分散ローカルメモリが収容されている。メモリ帯域幅は1秒当たり9P(ペタ)Bになる。各コアは、全てがハードウェアの微細なオンチップメッシュ接続通信ネットワークで相互にリンクされ、1秒当たり100Pbitの総帯域幅を実現する。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

From Informa TechTarget

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか

なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

ITmedia マーケティング新着記事

news017.png

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

news027.png

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

news023.png

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...