NVIDIAは生成AIやLLMの処理を効率化する新しいGPUを発表した。近年、AI技術の活用に乗り出す動きが企業に広がっている。企業が着目すべきGPUの特徴とは。
2023年11月13日月曜日(現地時間)、GPU(グラフィックス処理装置)ベンダーのNVIDIAはデンバーで開催された「Supercomputing 2023」(SC23)の特別講演で、新GPUの「NVIDIA HGX H200」(以下、H200)を発表した。SC23はスーパーコンピューティング、ネットワーク、ストレージの国際カンファレンスだ。
NVIDIAによると、H200はメモリにSK hynixの「HBM3e」を採用してメモリ容量を従来モデルから増やした。これは、テキストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)と大規模言語モデル(LLM)の処理効率化に役立つという。具体的にはどのような進化を遂げたのか。
さまざまな企業が生成AIやLLMの活用に乗り出している。とはいえ、こうしたAIワークロード(AI技術を組み込んだシステム)を処理するには一定以上の容量のメモリが必要だ。「メモリ容量は企業にとってしばしば課題になる」とコンサルティング企業J.Gold Associatesの創設者兼アナリストのジャック・ゴールド氏は指摘する。
「AIワークロードは、CPUやGPUだけでなく、メモリにも負荷を掛ける。メモリの処理性能を追加するほど、AIワークロードの実行速度に違いが出る」(ゴールド氏)
NVIDIAによると、「Amazon Web Services」(AWS)や「Google Cloud」「Microsoft Azure」「Oracle Cloud Infrastructure」などが、2024年からH200を使ったインスタンス(仮想マシン)をデプロイ(配備)する最初のクラウドサービスになるという。一般提供の開始は2024年下半期になる見込みだ。H200は前世代のモデルである「NVIDIA HGX H100」と互換性があるため、NVIDIAのユーザー企業はサーバシステムの設計を見直すことなくH200を使用できる。
後編はNVIDIAの他の新製品の紹介や、近年の戦略を分析する。
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...