2021年10月05日 05時00分 公開
特集/連載

「AI」の“電力食い過ぎ”問題 その意外な深刻さとはAIのエネルギー消費問題【前編】

AIモデルのトレーニングには大量のデータだけでなくエネルギーを消費する。具体的にどの程度消費するのか。NVIDIAによる検証結果や各種の調査結果から、実態を明らかにする。

[Mark Labbe,TechTarget]

関連キーワード

データセンター | 環境保護


 機械学習モデルなどの高度なAI(人工知能)モデルのトレーニングには、時間、コスト、データに加えて、大量のエネルギーが必要になる。企業が大規模なデータセンターにデータを蓄積して、そのデータを使ってAIモデルをトレーニングするまでの間には、膨大な電力量を消費する。AI技術は企業に金銭的利益をもたらす反面、環境に害を及ぼす側面もある。

 AI技術の利用に必要な電力量は、どの程度なのか。言語データを基に単語の出現頻度をモデル化した「言語モデル」を例に、具体的な数字を見てみよう。

「AI」が消費する電力量は“想像以上”

 NVIDIAは言語モデル「Megatron-LM」の最終版のトレーニングにGPU(グラフィックス処理プロセッサ)「NVIDIA V100」を512基使用し、9日を費やした。V100の1基当たりの消費電力は250〜300ワット。今回のトレーニングにおける1基当たりの消費電力を250ワットと想定すると、512基のV100の消費電力は12万8000ワット、つまり128キロワットだ。このシステムを9日間稼働させたということは、2万7648キロワット時の電力量をMegatron-LMのトレーニングに消費したということになる。

 米エネルギー情報局によると、2019年における米国の1世帯当たりの年間平均電力量は1万649キロワット時だった。つまりMegatron-LMの最終版のトレーニングは、米国の3世帯分に相当する電力量を消費したということだ。

データセンターが消費する電力量

 新しい技術により、AIモデルのトレーニングに必要なデータの量は以前より少なくなったものの、初期トレーニングには依然として大量のデータが必要だ。AIモデルを更新するにはさらにデータを追加しなければならない。

 AI技術の複雑化に伴い、AIモデルが使用するデータはさらに増える見込みだ。そうなるとデータセンターが消費する膨大な電力量が問題になる。調査会社Deep Analysisの創業者アラン・ペルツ・シャープ氏は、「データセンターは環境に甚大な影響を及ぼす原因になる」と語る。

 調査会社IDCの推計によると、2020年に世界中で生成されたデータは64.2Z(ゼタ)Bだった。エネルギーと気候分野のシンクタンクEnergy Innovationは、最大規模のデータセンターの中には100メガワット以上の電力容量が必要なものもあると分析する。

 調査企業Synergy Research Groupの調査では、サーバ5000台以上、床面積1万平方フィート以上のデータセンター「ハイパースケールデータセンター」は2020年末時点で世界に約600カ所ある。これらのデータセンターが管理する全てのデータの保持に必要な電力量は不明だが、驚異的な数値になることは想像に難くない。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news040.jpg

TikTokは若者よりむしろ大人にこそ向いているかもしれないと考えられる理由
TikTok For Businessが「X世代白書〜理由が必要なX世代へ、架け橋を。〜」を発表。若者向...

news084.jpg

2021年の国内動画広告市場は前年比142.3%の成長、コロナ禍の落ち込みから反転――サイバーエージェント調査
インターネットを通して配信される動画広告の年間広告出稿額推計とこれからの市場規模推...

news053.jpg

対Amazon包囲網も? ポストCookieにおけるCriteoの勝算
Criteoが3億8000万ドルでIPONWEBを買収する。サードパーティーCookie廃止はアドテク企業...