NVIDIAのBlackwellと液冷|GB200 NVL72の冷却要件と設備インパクトを徹底解説

冷却技術・液冷

「Blackwellは液冷必須」──NVIDIAのGPU世代交代が冷却業界に衝撃を走らせました。でも、こんな疑問が残っていませんか?

😣 こんな疑問はありませんか?
  • GB200 NVL72が「液冷必須」って具体的にどんなスペック要件?
  • 1ラック120kWの発熱を冷やすのに、施設側は何を準備すべき?
  • H100世代と比べて何がどう変わったのか?
  • 次世代のVera Rubin(600kW)まで見据えると、今どう設計すべき?
  • Blackwellの液冷要件は投資テーマとしてどこに波及するのか?
✅ この記事でわかること
  • GB200 NVL72の冷却仕様(入口温度・流量・圧力損失)を数字で整理
  • H100 → GB200 → GB300 → Vera Rubinのラック電力密度ロードマップ
  • 液冷必須化が電力・冷却・床構造・CDUの4要素に与えるインパクト
  • NVIDIAが発表した「水効率300倍改善」の仕組みと意味
  • Blackwell導入が波及する冷却設備サプライチェーンの構造
🎯 先に結論

NVIDIA Blackwell GB200 NVL72は、72基のGPUと36基のCPUを1ラックに統合し、消費電力は約120kWに達するラックスケールシステムです。この発熱量は空冷の限界(約20kW)の6倍であり、NVIDIAは直接液冷(DLC)を義務化しています。公式仕様では入口温度20〜25℃、流量80L/分、圧力損失1.5バール以下が要求されます(出典:Introl)。しかしインパクトは冷却だけに留まりません。電力設備の刷新、床耐荷重の強化、CDUの大容量化──Blackwellの導入はデータセンター全体の再設計を強いる「トリガー」なのです。さらにNVIDIAはBlackwell液冷プラットフォームで水使用効率(WUE)を従来比300倍以上改善したと発表しています(出典:NVIDIA公式ブログ)。そして次世代Vera Rubinは600kW/ラック──今の5倍です。Blackwellで起きている変化は、始まりにすぎません。

GB200 NVL72の冷却仕様──数字で押さえる

📐 NVIDIAが「義務化」した液冷スペック

GB200 NVL72は、72基のBlackwell GPUと36基のGrace CPUを1本のラックに統合した「ラックスケールシステム」です。その冷却は空冷では不可能であり、NVIDIAはDLC(直接液冷)を義務化しています。NVIDIA公式およびIntrolの解説(出典)を基に、冷却仕様を整理します。

項目 GB200 NVL72の仕様
搭載GPU数 72基(Blackwell GPU)+ 36基(Grace CPU)
ラック消費電力 約120kW(一般家庭約40世帯分)
GPU1枚あたりTDP 約1,200W(Superchipあたり)
冷却方式 DLC(直接液冷)──義務
冷却液の入口温度 20〜25℃(最大45℃まで対応可能との報告あり)
冷却液の流量 約80 L/分(ラック全体)
圧力損失 1.5バール以下
ラック重量 約1.3トン(軽自動車1台分)
GPU接合部温度 75℃以下を維持
価格 約300万ドル(約4.5億円)/ラック
☕ たとえるなら…

GB200 NVL72は「1本のラックに電気ストーブ120台を詰め込んで24時間稼働させる」ようなものです。毎分80リットル──お風呂1杯分の冷却液を毎分5回流し続けないと冷えない。しかもその冷却液は25℃以下で供給する必要がある。エアコンの風では到底無理──だから液冷が「選択肢」ではなく「義務」なのです。

120kW
1ラックの消費電力
80 L/分
必要な冷却液の流量
300倍
水使用効率の改善(NVIDIA発表)

H100からVera Rubinへ──ラック電力密度は3年で5倍になる

📈 NVIDIAのGPUロードマップと冷却要件の因果関係

Blackwellは「点」ではなく「線」の上にあります。NVIDIAのGPU世代交代がラック電力密度をどう押し上げてきたか、そして今後どこに向かうかを一気に見てみましょう。

2022年 H100(Hopper世代)

GPU 1枚 700W。ラック電力約20〜40kW。空冷モデルが主流。液冷は一部。CoWoS-S採用。

2024〜2025年 GB200(Blackwell世代)★ここ

Superchip 1,200W。ラック電力約120kW液冷が義務。CoWoS-L採用。NVIDIAが初めて「空冷では不可」と明言した世代。

2025年 GB300(Blackwell Ultra)

GPU 1枚 1,400W。ラック電力約125〜130kW。完全液冷。冷却システム1台で約5万ドル(出典:Tom’s Hardware)。

2027年 Vera Rubin

ラック電力約600kW──一般家庭200世帯分。今のGB200の5倍出典:Introl)。NVL144構成も登場予定。「ラック」という概念自体が再定義される領域。

ラック電力密度の推移(空冷限界20kWを1とした場合)

空冷限界
20kW(×1)
H100 ラック
~40kW(×2)
GB200 NVL72 ★
120kW(×6)
Vera Rubin(2027年)
600kW(×30)
💡 ポイント:Blackwellは「始まり」にすぎない
GB200の120kWでも空冷の6倍。しかし2027年のVera Rubinは600kW──空冷の30倍。今Blackwell対応で設計するDCが、3年後のVera Rubinに対応できるかどうか──この「将来余地」が、DC設計の最重要判断になっています。

Blackwellの液冷義務化がデータセンターに与える4つのインパクト

🏗️ 冷却だけでは終わらない──DC設計全体が変わる

GB200 NVL72の導入は、「冷却方式をDLCに変える」だけの話ではありません。Introlの分析によれば、一般的なDCがNVL72を1台受け入れるだけで500万〜1,000万ドル(約7.5億〜15億円)の設備改修が必要になるケースがあります(出典:Introl)。影響は4つの領域に波及します。

影響① 電力設備
1ラック120kW。10ラック並べれば1.2MW。従来DCの受変電設備では容量が圧倒的に不足。480V電源供給の検討、PDUの再設計が必要。NVIDIAは800V HVDCの採用も視野に。
❄️
影響② 冷却設備
CDUはラックあたり120kW以上の排熱能力が必要。In-Row型CDUが標準構成。配管の口径・ポンプの能力・冷却塔の容量すべてが再計算の対象に。
🏗️
影響③ 物理構造
ラック重量1.3トン。床耐荷重1,000〜2,000kg/㎡が必要。液冷配管の防水処理、ケーブル200本以上の配線スペースも確保が必要。
🌐
影響④ ネットワーク
NVL72内の72GPU間はNVLinkで1.8TB/sで接続。ラック間はInfiniBandで400〜800Gbps。ネットワークスイッチ・光ケーブルの刷新も必須。
⚠️ よくある誤解:「CDUを入れればBlackwell対応できる」
CDUは冷却の心臓部ですが、それだけでは不十分です。120kWの電力を供給する受変電設備、1.3トンのラックを支える床、200本以上のケーブルを収容するスペース、InfiniBandの超高速ネットワーク──4つの領域すべてがBlackwell水準を満たしていなければ、NVL72は稼働できません

「水効率300倍改善」の仕組み──NVIDIAの液冷戦略

💧 「冷やすために水が消える」問題をBlackwellはどう解決するのか

NVIDIAは2025年4月、Blackwell液冷プラットフォームが従来の空冷+冷却塔方式と比較して水使用効率(WUE)を300倍以上改善したと発表しました(出典:NVIDIA公式ブログ)。この改善はどのように実現されているのでしょうか。

① 空冷時代の排熱経路

GPU → 空冷ファン → サーバールームの空気が温まる → CRAC(空調機)が空気を冷やす → CRACの排熱を冷却塔の蒸発で処理 → 水が大量に消える

② Blackwell液冷の排熱経路

GPU → コールドプレートで直接液冷 → CDUで施設冷水に熱交換 → 施設冷水をドライクーラー(水蒸発なし)で外気に排熱 → 水をほぼ使わない

③ 結果

液冷DLC+閉ループ+ドライクーラーの組み合わせで、冷却過程での水蒸発をほぼゼロに。空冷+冷却塔方式と比較してWUEが300倍以上改善

Vertivのリファレンスアーキテクチャでは、GB200 NVL72サーバー向けの液冷設計で年間エネルギー消費を25%削減、ラックスペースを75%削減できるとしています(出典:NVIDIA公式ブログ)。

💡 ポイント:「液冷=水を使う」は誤解
液冷は「水を蒸発させて冷やす」のではなく、「閉ループで液体を循環させて熱を運ぶ」仕組みです。CDU内で一次側と二次側は物理的に分離されており、二次側の冷却液(PG25等)は蒸発しません。排熱先をドライクーラーにすれば、一次側の水も蒸発しない。液冷だからこそ水を使わずに済む──これがBlackwellのWUE 300倍改善の構造です。
📘 関連記事
【完全図解】クーリングタワーとは?|データセンターの排熱構造と用水問題を図解 →

「なぜ蒸発冷却が水を消費するのか」の構造と、PUE/WUEのトレードオフを詳しく解説。

Blackwellが波及するサプライチェーン──誰が恩恵を受けるか

🔗 NVIDIAのGPU1つが動くために、これだけの企業が必要

GB200 NVL72の液冷義務化は、NVIDIAだけの話ではありません。冷却設備・電力設備・パッケージング・配管──物理インフラのサプライチェーン全体に構造的な需要を生みます。

❄️
CDU・冷却設備
ニデック、カンネツ、Vertiv、nVent、CoolIT。CDU需要はGB200導入数に比例して増加。
🔧
配管・コネクタ
三桜工業(配管技術)。OCP規格UQDカプラー。冷却液の水質管理関連。
電力設備
富士電機(UPS)、日東工業(配電盤)。120kW×数百ラック分の受変電設備が必要。
📦
先端パッケージ
TSMCのCoWoS-L。イビデン・新光電気(基板)。ディスコ(研磨装置)。
💾
HBM
SK Hynix(HBM3E先行供給)。GB200は8スタック搭載。HBM需要はGPU出荷数に直結。
🏗️
DC建設
大成建設、NTTファシリティーズ。液冷Ready設計の新設DC需要。床耐荷重の構造設計。
📈 投資家の方へ

Blackwellの液冷義務化は「NVIDIAの好業績→冷却・電力・パッケージング企業への構造的需要」という因果の連鎖を生みます。GPU世代交代のたびに冷却要件は厳しくなるため、CDU・配管・電力設備への需要は一過性ではなく構造的です。さらにVera Rubin(600kW)の到来は、このサプライチェーン全体への需要をさらに5倍に押し上げる可能性があります。なお個別銘柄の投資推奨ではありません。

🔧 技術者の方へ

GB200 NVL72の導入は、DC側に「入口温度25℃以下・流量80L/分・圧力損失1.5バール以下」を要求します。この数字をもとに配管口径・ポンプ揚程・CDU容量・冷却塔能力を逆算できることが、液冷DCのエンジニアリングの出発点です。空調設備の設計経験がある技術者は、この数字を「設計仕様に翻訳する」スキルがそのまま活きます。

よくある誤解を整理する

❌ よくある誤解 ✅ 実際はこう
「Blackwellは液冷推奨」 NVL72は液冷「義務」。空冷モデルは存在しない。B200単体(HGX構成)には空冷オプションがあるが、NVL72/36のラックスケール構成では物理的に空冷不可能。
「H100用のDCでBlackwellが動く」 H100ラック(~40kW)とGB200ラック(120kW)では電力密度が3倍異なる。電力・冷却・床耐荷重すべてが足りない。Introlは改修費用を$5〜10Mと試算。
「液冷を入れると水をたくさん使う」 DLC液冷は閉ループで水を蒸発させない。排熱先をドライクーラーにすれば水蒸発ゼロ。NVIDIAは空冷+冷却塔方式と比較してWUE 300倍改善を実証。
「Blackwell対応で設計すれば将来も安心」 2027年のVera Rubinは600kW/ラック──Blackwellの5倍。Blackwell対応DCがVera Rubinに耐えられるかは、電力・配管の「拡張余地」次第。設計時に将来世代を見据えることが必須。

まとめ:Blackwellと液冷の全体像

📋 この記事のまとめ

① GB200 NVL72の冷却仕様:72 GPU+36 CPU、ラック120kW、入口温度20〜25℃、流量80L/分、圧力損失1.5バール以下。DLC液冷が義務。

② ラック電力密度ロードマップ:H100(~40kW)→ GB200(120kW)→ GB300(~130kW)→ Vera Rubin(600kW)。3年で5倍。空冷限界(20kW)との差は拡大の一途。

③ DC設計への4つのインパクト:電力設備(受変電の大幅増強)、冷却設備(CDU・配管・冷却塔の再設計)、物理構造(床耐荷重1,000〜2,000kg/㎡)、ネットワーク(NVLink 1.8TB/s+InfiniBand)。

④ 水効率300倍改善:DLC+閉ループ+ドライクーラーで蒸発冷却を排除。空冷+冷却塔方式と比較してWUEを300倍以上改善(NVIDIA発表)。

⑤ サプライチェーンへの波及:CDU(ニデック等)、配管(三桜工業)、電力設備(富士電機)、パッケージング(TSMC CoWoS-L)、HBM(SK Hynix)、DC建設──GPU世代交代のたびに構造的需要が発生。

⑥ Blackwellは「始まり」にすぎない。Vera Rubinの600kWを見据えた「拡張余地のある設計」が今の最重要判断。

結局こういうことです。Blackwell GB200 NVL72は、NVIDIAが初めて「空冷では不可能」と明言したGPU世代です。1ラック120kWという数字は、電力・冷却・床構造・ネットワークのすべてをBlackwell水準に引き上げることを要求します。しかし120kWは通過点に過ぎません。2027年のVera Rubinは600kW。「今のDCを液冷対応にする」だけでなく、「3年後の5倍に耐えられる設計にする」──この視野の広さが、Blackwell時代のDC設計に求められる判断力なのです。

❓ よくある質問(FAQ)

Q. GB200 NVL72の冷却システムだけでいくらかかりますか?
A. Tom’s Hardwareの報道によると、GB300 NVL72(Blackwell Ultra)のラック1台分の冷却システムは約5万ドル(約750万円)です。GB200 NVL72も同水準と推定されます。これはCDU・コールドプレート・マニフォールド・配管を含む価格であり、さらに施設側の冷却塔・配管工事・防水処理の費用が加わります。NVL72本体が約300万ドルに対し、冷却システムは約1.5〜2%のコスト比率です。
Q. B200(空冷対応あり)とGB200 NVL72はどちらを選ぶべきですか?
A. B200はHGX構成で空冷オプションがあり、既存DCへの導入ハードルが低い一方、性能はNVL72に及びません。Introlの分析では、B200は2.5倍のH100性能を700Wで提供し、GB200 Superchipは30倍の推論速度を1,200Wで提供します。大規模AI学習には液冷NVL72一択、推論や段階導入にはB200空冷も選択肢──用途と施設の準備状況で判断してください。
Q. 既存のデータセンターにGB200 NVL72を導入できますか?
A. 技術的には可能ですが、Introlの分析では一般的なDCがNVL72を1台受け入れるだけで$5〜10M(約7.5億〜15億円)の改修費用がかかるケースがあります。具体的には床の補強(120kWラック=約1.3トン)、480V電源の増設、液冷配管の敷設、CDUの設置スペース確保が必要です。多くの場合、既存DCの改修より「液冷Ready」の新設DCを建てるほうが合理的です。
🗺️ 液冷の全体像を知りたい方へ
📖 【完全図解】液冷とは?DLC・液浸冷却・水冷の違いを初心者向けに整理 →

Blackwellの液冷要件を理解するための前提知識。DLC・リアドア・液浸の全体像から学べます。

📚 次に読むべき記事

📘 クーリングタワーとは?|データセンターの排熱構造と用水問題を図解 →

CDUの先にある「排熱の出口」。WUE 300倍改善の背景を構造で理解。

📘 高密度データセンターとは?AI時代に「普通のDC」では足りない理由 →

Blackwellが要求する「高密度DC」の4つの壁と選定基準。

📘 CoWoSとは?NVIDIAのGPUを支える先端パッケージ技術を解説 →

GB200がCoWoS-Lを採用した理由と、CoWoS供給がAI産業のボトルネックになっている構造。

📩 記事の更新情報を受け取りたい方へ

新しい記事が公開されたら、Xアカウント @shirasusolo でお知らせします。AIインフラの構造を一緒に学んでいきましょう。

コメント

タイトルとURLをコピーしました