AIモデルの精度が上がり、計算需要が増大すると、影響を受けるのがデータセンター業界だ。データセンター事業者が突き付けられている「根本的な設計思想の変革」の背後には何があるのか。専門家の見通しとは。
人工知能(AI)技術の普及が、データセンターの設計を根本から見直すよう迫っている。高性能化の一途をたどるAIモデルが、電力や冷却、ネットワークに関する課題を次々にもたらしているためだ。これらの課題に、データセンター業界はどう立ち向かうのか。AIやセキュリティ分野の技術展示会「GITEX ASIA 2025」に登壇した、データセンター業界の専門家によるパネルディスカッションから、その未来を探る。
データセンター運営企業NextDCでアジア担当シニアバイスプレジデント兼マネージングディレクターを務めるルーク・マッキノン氏は、変化の筆頭として「リーズニングモデル」の登場を挙げた。リーズニングモデルは、複雑な問題の解決策や結論を導き出すために、論理的に筋道立てて考えるAIモデルだ。マッキノン氏の説明によると、リーズニングモデルは従来のインファレンスモデル(一度の処理で問題を解決するAIモデル)と比べて何倍もの計算能力を必要とする。
マッキノン氏は、リーズニングモデルが、今後の国家戦略や企業活動を支えるクラウドインフラの需要を押し上げると主張した。その需要に応えるための課題として、冷却と電力密度(単位面積当たりの消費電力)を指摘した。
サーバラック当たりの電力密度の急上昇は、データセンター業界にとって積年の懸案事項だ。インドのAIスタートアップ(新興企業)Yotta Data Servicesで共同創業者兼CEOを務めるスニル・グプタ氏も、この問題を指摘した。従来のCPUを用いたワークロード(処理)に比べると、GPU(画像処理装置)で実行するAIワークロード(AI関連のワークロード)は、はるかに多くの電力を必要とする。GPUが消費した電力は熱に変換されるため、サーバが消費する電力が多いほど、多くの熱が発生する。こうして発生した熱を効率的に除去できなければ、GPUの性能低下や故障を招きかねない。この問題は現状、サーバラック背面に空調を取り付ける「リアドア」空調による冷却システムを用いても解消が難しいという。
グプタ氏の見積もりでは、GPUで実行するAIワークロードは、通常のサーバラックが消費する電力の数倍を要求する。サーバラック当たりの必要消費電力が増える将来を見据え、同氏は初期段階からデータセンターに液冷システムを導入することの重要性を強調した。
既存データセンターでAIワークロードを十分に処理できるようにするための改修には、特有の課題が存在する。不動産会社CapitaLandでデータセンター担当マネージングディレクターを務めるユージン・セオ氏は、クラウドサービス用のデータセンターをAIデータセンター(AIワークロード向けのデータセンター)に改修することは「技術的には実現可能だが、金銭面での困難が伴う」と説明した。セオ氏は既存顧客の解約リスク、冷却水分配ユニットなどの設備更新への投資を例に挙げ、「配管が増え、運用の負荷も増す」と指摘した。
AIデータセンターにおけるネットワーク構成は、従来のものとは大きく異なる。通信サービス事業者China Unicom GlobalでAIデータセンター担当バイスプレジデントを務めるマイルズ・タン氏は、AIワークロード用のサーバクラスタには高速な相互接続(インターコネクト)が求められると語った。大量の電力を消費するサーバの要求を満たすためには、複数の電源供給ユニットを同時に稼働させる必要がある点も挙げた。
データセンター事業者Princeton Digital Groupで、シンガポールおよびマレーシア担当の最高技術責任者(CTO)兼マネージINGディレクターを務めるアッシャー・リン氏が強調したのは、安定した再生可能エネルギーの確保手段だ。
「化石燃料から再生可能エネルギーへの移行を促す規制の下で、安価な再生可能エネルギーを無制限に使えるかどうかが大手IT企業の関心事だ」とリン氏は語った。セオ氏もリン氏の意見に同意し、データセンター事業がエネルギー問題と不可分であることについて次のように話した。「データセンターは地域の電力供給に影響を与える存在であり、エネルギー供給網を構成する一部になった。データセンター事業者にとって、データセンター事業に必要な再生可能エネルギーの確保と、エネルギーを安定供給する仕組みづくりは、本質的に同じものだ」
AIモデルの「学習」と「推論」では、求められるワークロードの性質が異なることが、データセンターの設計を一層複雑にしている。学習では、膨大なデータがデータセンター内のサーバ間を行き交う通信(イーストウエストトラフィック)が中心になる。一方、推論では、エンドユーザーとサーバ間の通信(ノースサウストラフィック)が中心で、ネットワークの遅延の少なさと物理的な近さが重要になる。
マッキノン氏とグプタ氏は、将来的に推論の実行場所が分散するという見解で一致した。AIモデルが生成した回答をエンドユーザーに素早く届けるには、ネットワークの遅延を抑えることが重要だ。そのために、推論を大規模なデータセンターではなくエッジ(データの発生源であるデバイスの近く)で処理するようになる可能性があると両氏は予測した。
このような未来の実現に向けての技術革新を期待する一方で、データセンター事業者は不確実性にも直面している。マッキノン氏は今後のトレンドとして、AIワークロードを小分けにして並列処理する技術「GPUシャード」や、AIワークロード用インフラにかかる費用を抑えるための「サービスとしての液冷」(Liquid Cooling as a Service)を示唆した。
グプタ氏は2つの観点から警鐘を鳴らした。1つ目は技術の陳腐化だ。GPUの進化スピードはあまりにも速く、今日構築したインフラでは数年後のGPUを稼働させられなくなる可能性がある。2つ目は事業の採算性だ。ユーザー企業が自らのサーバを持ち込むコロケーションサービスとは異なり、GPUを貸し出すサービスはたいていの場合1年未満の短期契約だ。そのため、GPUへの多大な初期投資を回収できるかどうかの見通しを立てにくくしている。「データセンター市場は当面、非常に不透明な状況が続く」と同氏は推測した。
複数の課題はあるものの、登壇したパネリストは、データセンター業界が大きな技術変革の最前線にいるという点で意見が一致した。「われわれは今、『AI革命』の始まりにいる。人類の歴史が大きく変わるこの転換期に、その変化を最前線で支える業界に身を置いている」とリン氏は締めくくった。
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
「テレワークでネットが遅い」の帯域幅じゃない“真犯人”はこれだ
ネットワークの問題は「帯域幅を増やせば解決する」と考えてはいないだろうか。こうした誤解をしているIT担当者は珍しくない。ネットワークを快適に利用するために、持つべき視点とは。
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。
「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...