Cerebrasが、「チップ」の概念を覆す巨大なAI専用チップを発表した。B5用紙に匹敵する面積の「Wafer Scale Engine」は性能もすさまじい。
米サンフランシスコを拠点とするスタートアップ企業Cerebras Systems(以下Cerebras)は、人工知能(AI)向けに最適化したチップ「Cerebras Wafer Scale Engine」(WSE)を発表した。同社によると、これは1兆を超えるトランジスタ数を誇る業界初のチップだという。WSEのサイズは4万6225平方ミリで、これは最も大きなGPUの56.7倍に相当する。
GPUベースのAIアクセラレーションと比べると、WSEは3000倍以上の高速オンチップメモリを備え、1万倍以上のメモリ帯域幅を有すると同社は発表している。
Cerebrasによると、チップのサイズが大きいほど情報の処理が高速になり、回答の生成にかかる時間が短くなるという。洞察を得るまでの時間、つまり「トレーニング時間」を短縮すれば、リサーチ担当者はより多くのアイデアをテストし、より多くのデータを利用して新しい問題を解決できるというのが同社の見解だ。
「WSEは、AI向けに一から設計し、レチクル接続、歩留まり、電源供給、パッケージなど、数十年もの間チップサイズを制限していた技術上の課題を解決することで、同チップを最先端へと押し上げる抜本的なイノベーションを取り入れている」と話すのは、Cerebrasの創設者兼CEOのアンドリュー・フェルドマン氏だ。
「WSEは計算と通信の速度を向上させることで、トレーニング時間を短縮する。最も大きなGPUの56.7倍以上のシリコン領域を用意することで計算を実行するコア数を増やし、そのコアに多くのメモリを近接させ、コアが効率的に演算できるようにしている」と同社は説明する。
「このように膨大な数のコアとメモリが単一のチップに存在するため、全ての通信がシリコン上で行われる。つまり低遅延通信帯域幅が非常に大きくなるため、コアのグループが最高の効率で連携し、メモリ帯域幅がボトルネックにならなくなる」
WSEの4万6225平方ミリのシリコンには、AI向けに最適化された40万のコンピューティングコアと18GBの分散ローカルメモリが収容されている。メモリ帯域幅は1秒当たり9P(ペタ)Bになる。各コアは、全てがハードウェアの微細なオンチップメッシュ接続通信ネットワークで相互にリンクされ、1秒当たり100Pbitの総帯域幅を実現する。
Copyright © ITmedia, Inc. All Rights Reserved.
データから得られるインサイトを活用して、企業の競争力を強化していくことの重要性が高まっている。しかし、有用なインサイトの生成は簡単なことではない。その実践を阻む課題を確認しながら、解決策について解説する。
昨今、法人営業においては消費者のニーズを正確に捉え、迅速に対応することが求められている。こうした中で注目されているのが、インテントデータ活用による顧客の興味関心の可視化だ。本資料では、インテントデータのポイントを解説する。
データの爆発的な増加に加えてビジネスにおけるAI活用が加速する中、AIのメリットを最大限に引き出すためにもデータガバナンスの重要性が高まっている。AI時代のデータガバナンスにおいて押さえておきたい5つの柱を解説する。
データの利活用を進めるためにはデータ基盤の導入が必要だ。しかし、データ基盤を構築/運用するためにはさまざまな課題を乗り越えなければならない。本資料では、データ活用環境の構築に成功した15社の事例からそのヒントを解説する。
データ分析・活用とその前提となるデータ可視化のため、多くの企業で導入されているTableau。有用性の高いツールだが、「運用・保守にコストやリソースが割かれる」などの課題もある。これらの課題を解消する方法を探る。
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年4月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...
Cookieを超える「マルチリターゲティング」 広告効果に及ぼす影響は?
Cookieレスの課題解決の鍵となる「マルチリターゲティング」を題材に、AI技術によるROI向...
「マーケティングオートメーション」 国内売れ筋TOP10(2025年4月)
今週は、マーケティングオートメーション(MA)ツールの売れ筋TOP10を紹介します。