データセンターには冷房や空調など、さまざまな形で水を引き入れている。正しい方法さえ知っていれば、冷却効率に優れる水冷方式に移行しない理由はないだろう。
データセンター管理者たちの悩みは、施設内をいかに効果的かつ効率的に冷却するかにある。もちろん、データセンター内の漏水は悪夢に違いない。しかし、増加の一途をたどる高性能データセンターサーバのプロセッサ冷却に水を使うことは、今後最も現実的な方法になりそうだ。水は決して恐れる必要はない(関連記事:データセンターのファンレス化を実現する液浸冷却の実際)。
1964年から1990年まで、大規模なメインフレームコンピュータは「水冷式」だった。その後、CMOSトランジスタ製造技術が開発され、プロセッサから発生する熱は劇的に低減し、空冷機器への回帰が可能になった。水冷式は長年、高性能PCにおいても用いられてきた。
ただ、水冷方式は優れていたものの、IT業界は「空冷方式」に戻った。熱負荷がそれほど大きくなければ、空冷方式の方がコスト的に有利であったからだ。しかしその後、チップの集積度は劇的に高まり、クロック速度も急上昇した。いずれも電力需要とプロセッサからの排熱を増大させる技術革新だった。
空冷式は音がうるさい。冷却効果を高めようとすれば、より高速なファンが必要だ。シンプルな1Uラックサーバでさえ、10や12、あるいはそれ以上の可変速ファンが組み込まれている。1つのブレードサーバでファンが故障すると、膨大な送風量を維持するために残りのファンが速度を上げ、ジェットエンジンのような騒音が発生する。そのノイズが、データセンターの作業環境を劣悪なものにしている。
また、空冷式は大量の電力を消費する。ファンの電力消費は風量の3乗に比例するため、風量を倍にすると2の3乗、すなわち8倍の電力を消費することになる。エネルギー効率の点からも、高い熱負荷の冷却に大量送風が有効な方法とはいえないことが分かるだろう。
たとえ短時間送風が停止しただけでも、保護センサーがサーバを直ちにシャットダウンしないかぎり、高価なプロセッサは破壊されかねない。もし循環する少量の水があれば、その間のギャップを埋めてくれるだろう。
コンピュータ技術の歴史において、われわれはしばしば「処理限界」や「I/O限界」といったシステムパフォーマンスの制約と戦ってきた。いまプロセッサは「熱限界」にある。そして水は熱伝達の面で空気よりも優れている。冷却に用いた場合、水は空気のおよそ3500倍も効率的だ。
水冷式のプロセッサがあれば、チップやサーバメーカーにはさまざまなコンピューティングパワーを開発する事実上無限のチャンスがある。はるかに効率的な冷却方法を導入することによるコスト削減の可能性やデータセンターの成長性を想像してみればよい。
Copyright © ITmedia, Inc. All Rights Reserved.
「TikTok禁止」は結局、誰得? どうするトランプ氏――2025年のSNS大予測(TikTok編)
米国での存続を巡る議論が続く一方で、アプリ内ショッピングやAI機能の拡大など、TikTok...
ネットの口コミを参考に8割超が商品を購入 最も参考にした口コミの掲載先は?
ホットリンクは、口コミ投稿の経験や購買への影響を調査した結果を発表した。
「生成AIの普及でSEOはオワコン」説は本当か?
生成AIの普及によりSEOが「オワコン」化するという言説を頻繁に耳にするようになりました...