「AI」の“電力食い過ぎ”問題 その意外な深刻さとはAIのエネルギー消費問題【前編】

AIモデルのトレーニングには大量のデータだけでなくエネルギーを消費する。具体的にどの程度消費するのか。NVIDIAによる検証結果や各種の調査結果から、実態を明らかにする。

2021年10月05日 05時00分 公開
[Mark LabbeTechTarget]

関連キーワード

データセンター | 環境保護


 機械学習モデルなどの高度なAI(人工知能)モデルのトレーニングには、時間、コスト、データに加えて、大量のエネルギーが必要になる。企業が大規模なデータセンターにデータを蓄積して、そのデータを使ってAIモデルをトレーニングするまでの間には、膨大な電力量を消費する。AI技術は企業に金銭的利益をもたらす反面、環境に害を及ぼす側面もある。

 AI技術の利用に必要な電力量は、どの程度なのか。言語データを基に単語の出現頻度をモデル化した「言語モデル」を例に、具体的な数字を見てみよう。

「AI」が消費する電力量は“想像以上”

 NVIDIAは言語モデル「Megatron-LM」の最終版のトレーニングにGPU(グラフィックス処理プロセッサ)「NVIDIA V100」を512基使用し、9日を費やした。V100の1基当たりの消費電力は250〜300ワット。今回のトレーニングにおける1基当たりの消費電力を250ワットと想定すると、512基のV100の消費電力は12万8000ワット、つまり128キロワットだ。このシステムを9日間稼働させたということは、2万7648キロワット時の電力量をMegatron-LMのトレーニングに消費したということになる。

 米エネルギー情報局によると、2019年における米国の1世帯当たりの年間平均電力量は1万649キロワット時だった。つまりMegatron-LMの最終版のトレーニングは、米国の3世帯分に相当する電力量を消費したということだ。

データセンターが消費する電力量

 新しい技術により、AIモデルのトレーニングに必要なデータの量は以前より少なくなったものの、初期トレーニングには依然として大量のデータが必要だ。AIモデルを更新するにはさらにデータを追加しなければならない。

 AI技術の複雑化に伴い、AIモデルが使用するデータはさらに増える見込みだ。そうなるとデータセンターが消費する膨大な電力量が問題になる。調査会社Deep Analysisの創業者アラン・ペルツ・シャープ氏は、「データセンターは環境に甚大な影響を及ぼす原因になる」と語る。

 調査会社IDCの推計によると、2020年に世界中で生成されたデータは64.2Z(ゼタ)Bだった。エネルギーと気候分野のシンクタンクEnergy Innovationは、最大規模のデータセンターの中には100メガワット以上の電力容量が必要なものもあると分析する。

 調査企業Synergy Research Groupの調査では、サーバ5000台以上、床面積1万平方フィート以上のデータセンター「ハイパースケールデータセンター」は2020年末時点で世界に約600カ所ある。これらのデータセンターが管理する全てのデータの保持に必要な電力量は不明だが、驚異的な数値になることは想像に難くない。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ITmedia マーケティング新着記事

news132.jpg

ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。

news103.jpg

なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...

news160.jpg

業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...