AIモデルを「GPU」で作るのに“町1つ分”の電力が必要という話は本当?AIが抱える環境問題【前編】

AIツールをビジネスに活用する上で、考慮すべき項目が「消費電力問題」だ。AIツールはどの過程においてどの程度の電力を消費するのか。あらためて理解しておこう。

2023年10月10日 07時00分 公開
[Danny QuinnTechTarget]

 2023年に最も議論されたトピックの一つが、人工知能(AI)技術が社会や経済に与える潜在的な影響だ。特にAIチャットbot(AI技術を活用したチャットbot)「ChatGPT」は、世間の注目を集めた。

 調査会社Statistaの統計によれば、2023年2月から6月にかけて世界中の企業の10%以上の人がChatGPTを職場で使ったことがある。2023年3月にGoldman Sachsが公開した報告書は、ChatGPTなどの生成AI(テキストや画像などを自動生成するAI技術)が3億人分の業務を自動化する可能性を示唆している。コンサルティング企業NewVantage Partnersが2022年に、企業94社の経営層に対して実施したアンケート調査では、回答者の91.7%がAI技術に投資していると回答した。

 こうした需要の高まりは、AI技術を支えるインフラ、特にデータセンターに大きな影響をもたらすと考えられる。どのような影響があるのかを見ていこう。

AIが消費する電力は“町1つ分”?

 AIモデルに対する操作には、「学習」と「推論」の2段階がある。これらはどちらも膨大な計算能力を必要とする。そこで活躍するのがGPU(グラフィックス処理ユニット)だ。

 1段階目の学習では、AIモデルは膨大な量のデータから学習する。これは人が試験勉強をするのと似ている。ChatGPTのベースになっているLLM(大規模言語モデル)「GPT」などの高度なAIモデルの学習では、広範囲にわたるデータに対して膨大な量の情報を処理しなければならない。何千基ものGPUが、時には何日も何カ月も止まることなく、AIモデルの学習のために稼働している。

 2段階目の推論は、AIモデルが知識を使って人の質問に答えたり、タスクの遂行を支援したりする段階だ。GPUは推論においても活躍し、AIモデルが学習したことを迅速かつ効率的に活用して答えを導き出せるようにする。

 GPUはデータセンターにおいて大量の電力と専用のサーバラックを必要とする。ベンダーがより多くのAIツール(AI技術を活用したツール)を開発し、企業がそれらのAIモデルを使用するにつれて、より広いデータセンターと、より多くの電力が必要になる。

 標準的なサーバラック当たりの消費電力は4キロワット程度だ。AIツールに必要な高性能コンピューティングの場合、サーバラック1台分でその15倍の電力を消費するという見方がある。大ざっぱに言えば、AIモデルが稼働する平均的なサーバラック1台分のハードウェアは、住宅25軒分と同程度の電力を必要とする。このようなハードウェアが収まったサーバラックをデータセンターに数百台配置すると、小さな町1つと同じ量の電力を消費することになる。このような電力消費は、企業の持続可能性における目標や、国家の「ネットゼロ」(温室効果ガスの排出量と、除去量および吸収量が等しい状態)目標に深刻な影響を与えかねない。


 後編は、AIツールの利用に際して企業が配慮すべき事項を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news129.jpg

SNSアカウントのビジネス貢献を明らかにするための調査サービス テテマーチが提供
フォロワーの属性や状態を明確に把握し、彼らの態度や行動を変容させるためにSNSがどう寄...

news096.jpg

Googleの「サーチトランスフォーメーション」で広告はどう変わる?
Googleは広告主向けの年次イベント「Google Marketing Live 2024」において、広告やコマ...

news028.jpg

これからのマーケティングに関する8つの予言(無料eBook)
激動するトレンドを正しく理解することはマーケティングで成功するための第一歩。今回の...