IBMの新プロセッサ「Telum」はAIの推論に最適化されており、例えば不正検出をリアルタイムに処理できるという。Telumはどのようなアーキテクチャなのか。
IBMが、メインフレーム「IBM Z」でのAI処理を高速化する「Telum」プロセッサを発表した。IBMのResearch AI Hardware Centerが3年以上かけて開発したこのチップは、スーパースカラー方式のアウトオブオーダー(命令の順序に依存しない)パイプラインを備え、5GHz以上のクロック周波数で動作する8つのプロセッサコアを搭載する。
Telumは1コア当たりのキャッシュが32MBで、Telumを32個まで拡張できる。デュアルチップモジュール設計で220億個のトランジスタを搭載し、17層の金属層の配線は19マイル(約30キロ)に及ぶ。
複雑な不正をリアルタイムに検知できないことは多い。そのため不正の発生に気付く前に、犯罪者が盗んだクレジットカードで商品を購入する可能性がある。
Telumは取引中にAIの推論を可能にすることを目的としたオンチップアクセラレーションを搭載するIBM初のプロセッサだ。IBMのクリスチャン・ヤコビ氏(Zプロセッサのチーフアーキテクト)は、銀行、金融、保険の顧客に1秒当たり1万〜5万件の取引に対してリアルタイムにAIを実行できる能力を提供したいと語る。
アクセラレーションは、Zプロセッサコアの下でプログラミングされる新しい命令を使って実現している。「OSは介入しない」(ヤコビ氏)
GPUベースのAIアクセラレーションとは異なり、「遅延の増加につながるPCIバス経由でのデータ送信は必要ない」と同氏は語る。
Telumはデータが格納されているメモリに直接アクセスするという。TelumがAI処理に使われていないときは、通常の処理を実行させることもできる。
Telumは「IBM z15」よりもソケットレベルのパフォーマンスが40%向上するとIBMはみている。ヤコビ氏は、IBMはソフトウェアによるさらなる最適化を予定していると言う。
「ソリューションに必要なコードが階層化される。その階層はシリコンとプロセッサコアとAIアクセラレーターで実行されるファームウェアから始まる。このファームウェアは『行列演算』のようなさまざまな演算を実装する。その上位の層でOSとAIフレームワークソフトウェアを実行し、新しいNeural Network Processing Assist命令を活用する。この新しい命令がオンチップアクセラレーターへのソフトウェアレベルのビューになる」
「このアプローチにより、クライアントはIBM Zや『IBM Power Systems』などにAIモデルを構築できる。構築したモデルはONNX形式にエクスポート可能だ。その後、IBM Zへのデプロイ用にIBM Deep LearningコンパイラがそのONNXモデルをコンパイルして最適化する。コンパイル後のモデルがTelumで実行され、TelumのAIアクセラレーターがハードウェア、ファームウェア、ソフトウェアを通じて直接活用される」(ヤコビ氏)
スマホ時間の奪い合い「利用者増えても、利用時間は減少」 唯一の勝者は?
データマーケティング支援のGlossomは、「スマートフォンでのメディアとコマースの利用に...
生成AI時代のコンテンツ制作の課題 アドビが考える解決法は?
求められる顧客体験はますます高度になる一方で、マーケターのリソースは逼迫している。...
「イカゲーム」とコラボ ジョニーウォーカーが黒ラベルを“緑”に もしかして、これって……?
世界的な大ヒットとなったNetflixオリジナルドラマ「イカゲーム」のシーズン2公開が近づ...