AIツールをビジネスに活用する上で、考慮すべき項目が「消費電力問題」だ。AIツールはどの過程においてどの程度の電力を消費するのか。あらためて理解しておこう。
2023年に最も議論されたトピックの一つが、人工知能(AI)技術が社会や経済に与える潜在的な影響だ。特にAIチャットbot(AI技術を活用したチャットbot)「ChatGPT」は、世間の注目を集めた。
調査会社Statistaの統計によれば、2023年2月から6月にかけて世界中の企業の10%以上の人がChatGPTを職場で使ったことがある。2023年3月にGoldman Sachsが公開した報告書は、ChatGPTなどの生成AI(テキストや画像などを自動生成するAI技術)が3億人分の業務を自動化する可能性を示唆している。コンサルティング企業NewVantage Partnersが2022年に、企業94社の経営層に対して実施したアンケート調査では、回答者の91.7%がAI技術に投資していると回答した。
こうした需要の高まりは、AI技術を支えるインフラ、特にデータセンターに大きな影響をもたらすと考えられる。どのような影響があるのかを見ていこう。
AIモデルに対する操作には、「学習」と「推論」の2段階がある。これらはどちらも膨大な計算能力を必要とする。そこで活躍するのがGPU(グラフィックス処理ユニット)だ。
1段階目の学習では、AIモデルは膨大な量のデータから学習する。これは人が試験勉強をするのと似ている。ChatGPTのベースになっているLLM(大規模言語モデル)「GPT」などの高度なAIモデルの学習では、広範囲にわたるデータに対して膨大な量の情報を処理しなければならない。何千基ものGPUが、時には何日も何カ月も止まることなく、AIモデルの学習のために稼働している。
2段階目の推論は、AIモデルが知識を使って人の質問に答えたり、タスクの遂行を支援したりする段階だ。GPUは推論においても活躍し、AIモデルが学習したことを迅速かつ効率的に活用して答えを導き出せるようにする。
GPUはデータセンターにおいて大量の電力と専用のサーバラックを必要とする。ベンダーがより多くのAIツール(AI技術を活用したツール)を開発し、企業がそれらのAIモデルを使用するにつれて、より広いデータセンターと、より多くの電力が必要になる。
標準的なサーバラック当たりの消費電力は4キロワット程度だ。AIツールに必要な高性能コンピューティングの場合、サーバラック1台分でその15倍の電力を消費するという見方がある。大ざっぱに言えば、AIモデルが稼働する平均的なサーバラック1台分のハードウェアは、住宅25軒分と同程度の電力を必要とする。このようなハードウェアが収まったサーバラックをデータセンターに数百台配置すると、小さな町1つと同じ量の電力を消費することになる。このような電力消費は、企業の持続可能性における目標や、国家の「ネットゼロ」(温室効果ガスの排出量と、除去量および吸収量が等しい状態)目標に深刻な影響を与えかねない。
後編は、AIツールの利用に際して企業が配慮すべき事項を紹介する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
ブランドリスクの要因は「トランプ大統領」 どうするCMO――2025年のマーケティング予測10選【後編】
2025年はCMOの役割と課題が大きく変化すると予想される。具体的には何が起こるのか。「Ma...
AIはGoogleの地位を揺るがしているのか? Domoが年次レポートを公開
Domoの年次レポート「Data Never Sleeps」は、インターネット上で1分間ごとに起きている...
3500ブランドの市場・生活者データでマーケターのアイデア発想を支援 マクロミル「Coreka」でできること
マクロミルが創業25年で培ったリサーチや分析ノウハウを結集し、アイディエーションプラ...