「AI」の“電力食い過ぎ”問題 その意外な深刻さとはAIのエネルギー消費問題【前編】

AIモデルのトレーニングには大量のデータだけでなくエネルギーを消費する。具体的にどの程度消費するのか。NVIDIAによる検証結果や各種の調査結果から、実態を明らかにする。

2021年10月05日 05時00分 公開
[Mark LabbeTechTarget]

関連キーワード

データセンター | 環境保護


 機械学習モデルなどの高度なAI(人工知能)モデルのトレーニングには、時間、コスト、データに加えて、大量のエネルギーが必要になる。企業が大規模なデータセンターにデータを蓄積して、そのデータを使ってAIモデルをトレーニングするまでの間には、膨大な電力量を消費する。AI技術は企業に金銭的利益をもたらす反面、環境に害を及ぼす側面もある。

 AI技術の利用に必要な電力量は、どの程度なのか。言語データを基に単語の出現頻度をモデル化した「言語モデル」を例に、具体的な数字を見てみよう。

「AI」が消費する電力量は“想像以上”

 NVIDIAは言語モデル「Megatron-LM」の最終版のトレーニングにGPU(グラフィックス処理プロセッサ)「NVIDIA V100」を512基使用し、9日を費やした。V100の1基当たりの消費電力は250〜300ワット。今回のトレーニングにおける1基当たりの消費電力を250ワットと想定すると、512基のV100の消費電力は12万8000ワット、つまり128キロワットだ。このシステムを9日間稼働させたということは、2万7648キロワット時の電力量をMegatron-LMのトレーニングに消費したということになる。

 米エネルギー情報局によると、2019年における米国の1世帯当たりの年間平均電力量は1万649キロワット時だった。つまりMegatron-LMの最終版のトレーニングは、米国の3世帯分に相当する電力量を消費したということだ。

データセンターが消費する電力量

 新しい技術により、AIモデルのトレーニングに必要なデータの量は以前より少なくなったものの、初期トレーニングには依然として大量のデータが必要だ。AIモデルを更新するにはさらにデータを追加しなければならない。

 AI技術の複雑化に伴い、AIモデルが使用するデータはさらに増える見込みだ。そうなるとデータセンターが消費する膨大な電力量が問題になる。調査会社Deep Analysisの創業者アラン・ペルツ・シャープ氏は、「データセンターは環境に甚大な影響を及ぼす原因になる」と語る。

 調査会社IDCの推計によると、2020年に世界中で生成されたデータは64.2Z(ゼタ)Bだった。エネルギーと気候分野のシンクタンクEnergy Innovationは、最大規模のデータセンターの中には100メガワット以上の電力容量が必要なものもあると分析する。

 調査企業Synergy Research Groupの調査では、サーバ5000台以上、床面積1万平方フィート以上のデータセンター「ハイパースケールデータセンター」は2020年末時点で世界に約600カ所ある。これらのデータセンターが管理する全てのデータの保持に必要な電力量は不明だが、驚異的な数値になることは想像に難くない。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news139.jpg

「Fortnite」を活用  朝日広告社がメタバース空間制作サービスとマーケティング支援を開始
朝日広告社は、人気ゲーム「Fortnite」に新たなゲームメタバース空間を公開した。また、...

news029.jpg

「痩せる」投稿が最も増える時期は?――ホットリンクとXがダイエットに関する口コミや検索行動を共同調査
ホットリンクはXと共同で、ダイエットに関するXでの口コミや検索行動を調査しました。

news101.jpg

郵送業務を電子化する理由 3位「テレワークへの対応」、2位「業務の迅速化・省力化」で1位は?――リンクス調査
キャンペーンのお知らせや新商品の紹介のダイレクトメールなど、個人宛てに送付する郵便...