Skip to content

NVIDIA 在 2026 年 Vera Rubin(VR)平台的伺服器機櫃,從 L6 → L10 長臂管理、液冷水冷板統一採購、4 家供應商入列(訊凱/Cooler Master、奇鋐、雙鴻、台達)——這些供應鏈變化會對 ODM/CSP/散熱廠有什麼影響?為何 NVIDIA 要這麼做?供應鏈毛利會受多大影響?未來供應鏈的權力重新分配會如何?


🧠 NVIDIA Vera Rubin(2026)供應鏈「長臂管理」的真正意義

🎯 核心改變(全部都比 GB200/GB300 更激進)

1. 組裝層級從 L6 → L10

  • 過去: $L6 =;$ ODM 組裝 server,CSP 自己做 rack/cabinet 整合
  • 未來 VR: $L10 =;$ 整機櫃(rack)由 ODM 直接完成 → NVIDIA 主導 BOM/規格

➡️ NVIDIA 把 server → rack → 整體液冷 loop → power → networking 全部收回主導權


2. 水冷板由 NVIDIA「統一採購」

過去(GB200/GB300):

  • 設計:Cooler Master + 奇鋐
  • 生產:多家 RVL(recommended vendor list)
  • 由 ODM 交付

未來(VR):

  • NVIDIA 直接挑 4 家 → CM、奇鋐、雙鴻、台達電
  • 設計權 + 採購權 + 量產的 PD control 全部在 NVIDIA

➡️ 這是 實質的 Vertical Integration(輕度整合) ➡️ 類似 Apple 掌控 iPhone 主關鍵件供應鏈的方式


3. 液冷零件量大增

Vera Rubin GPU cluster:

  • GPU TDP 再上升
  • 機櫃密度再加倍
  • Power delivery(可能導入 800V HVDC)
  • 水冷分歧、manifold、quick disconnect、冷板數量全部提升

➡️ 單櫃含的液冷 BOM 約為 GB200 的 $2/sim 2.5 /times$


🧩 為什麼 NVIDIA 要這麼做?(真實的三大原因)

① 過去兩代(H100/GB200)最痛的是「液冷不穩定 & 量產混亂」

液冷是 AI server 量產最大痛點,主要因為:

  • GPU 冷板漏液造成 整機報廢
  • ODM 間設計不一致 → CSP 資料中心無法 scale
  • 供應商產能不穩 → 出貨延遲
  • 材料與加工品質(焊接、密封、QC)彼此差異大

➡️ NVIDIA 認為:「只要讓供應鏈自由玩,永遠無法全球 scale。」

就跟:

  • NVLink / NVSwitch 自己做
  • CoWoS-L 設計自己主導

一模一樣的邏輯。


② CSP(尤其是 AWS/Meta)抱怨代工設計品質不一致

CSP 需求:

  • 相同 GPU → 相同熱行為
  • 相同機櫃 → 相同散熱曲線
  • 全域數據中心可複製 → 運維(OPEX)下降

但 ODM 過去:

  • 有的用 A 版 manifold
  • 有的用 B 版 quick connector
  • 有的冷板壓降不同
  • 有的噴水,有的結霜

➡️ CSP 抱怨量非常大 ➡️ NVIDIA 感受到壓力 → 要用「蘋果式供應鏈控管」來統一規格


③ NVIDIA 要讓「多 ODM」交付的標準一致 → 貫徹模組化(rack-as-a-unit)

Rubin 架構的精神:

1 rack = 1 giant GPU 整櫃為單位交付(L10),而不是 server 為單位(L6)

如果熱設計、冷板、manifold 由 ODM 自行設計 → 無法達到 rack 統一致冷 → NVLink/NVS72 無法滿速運作


📉 供應鏈影響:利與弊並存(trade-off 分析)

🟢 (好處)供應鏈「大者恆大」加速

水冷板產業門檻:

  • 銅加工能力
  • 真空焊接技術
  • O-ring / sealing 品質控管
  • 壓降規劃能力
  • NPI 良率爬升速度

只有以下 4 家具備:

  • Cooler Master(訊凱)
  • 奇鋐
  • 雙鴻
  • 台達(最強的是 power + 液冷整合能力)

➡️ 三線散熱廠會被直接排除 ➡️ 上述 4 家「可能是下一個 CoWoS 產能獨占者」


🔴 (壞處)供應商毛利率會被 NVIDIA 大幅壓縮

原因:

  • 統一採購 → 大量議價
  • NVIDIA 長期策略:「你要量?就要價格」
  • ODM/CSP 不再分別下單 → 無法靠分散客戶拉高價格
  • NVIDIA 有更多替代方案(4 家互相比價)

我們可以合理推估:

散熱廠毛利率下降幅度

  • 水冷板既有毛利:$18% /sim 25%$
  • Rubin 量產後:$12% /sim 18%$(甚至可能更低)

➡️ 全面接近 power/thermal 的「代工業毛利」


🔥 供應鏈最擔心的:出貨量變大 → 毛利反而更差

業者說的「不想當第一大供應商」其實意思是:

  • 出貨量最大 = 議價最嚴重
  • 出貨量最大 = 要負責最多客訴與品質風險
  • 出貨量最大 = 需要最大 capex 投資,但毛利最低

這跟 Apple 的做法一模一樣:

你想要吃我的單? 那你就要接受我的毛利要求。


📦 ODM(鴻海 / 緯創 / 廣達)會怎麼變化?

1. 更像「server 版的 Foxconn for Apple」

  • NVIDIA 規格
  • NVIDIA 採購
  • NVIDIA QC
  • ODM 負責大量產能、快速 ramp、代工組裝

2. CSP(AWS/Meta)不滿的情緒會加重

CSP 會覺得:

我花錢買伺服器,結果 NVIDIA 什麼都決定。 → 我無法客製 → 無法導入自己的液冷系統 → 無法最佳化運維成本

這是未來競爭(AMD/Google ASIC)將會利用的破口。


💥 2026~2028:全球液冷供應鏈權力重新洗牌

🔝 Tier 1 會變成少數:CM / 奇鋐 / 雙鴻 / 台達

其中差異:

  • 訊凱(Cooler Master) 在 NVIDIA 雷擎(Grace-Blackwell)世代合作深、量大,有機會成第一 tier

  • 奇鋐:散熱實力最完整(氣冷+水冷) 但若量最大 → 價格壓力最大

  • 雙鴻:水冷規模第二大,資本強,有能力衝量

  • 台達:真正的 dark horse 最大優勢是:整機(power + 液冷 + 風扇)系統整合能力冠全台 很可能在 Rubin/Rubin+ 優勢擴大


🔽 Tier 2–3 廠商會被完全排除(和 CoWoS-ABF 一樣)

小散熱廠:

  • 無法跟上良率
  • 無法承受 capex
  • 無法承受 QC 壓力
  • 無法滿足 NVIDIA 的 0 ppm/ppm-level spec

➡️ 會出局 ➡️ AI server 液冷供應鏈將跟 CoWoS 一樣:集中在少數大廠


🚀 結論(你投資分析最需要的重點)

NVIDIA 的目標:全球一致的 AI rack(L10 交付模式)

供應鏈會被強制走向:高量 → 低毛利 → 高資本投入

大者恆大:CM、奇鋐、雙鴻、台達地位會明顯提升

CSP 不滿會加劇,未來(2027–2028)是 ASIC 伺服器崛起的窗口


📌 如果你需要,我可以再提供:

🅐 4 家廠商 逐家深度分析(散熱技術、量產策略、毛利模型)

🅑 NVIDIA Vera Rubin → GB200 → GB300

散熱 BOM 的成本結構對比(含 $ / rack, $ / GPU)

🅒 液冷 vs. 浸沒式 vs. 混合冷卻技術

三者在 Rubin 世代的成本假說

🅓 投資者角度

2026–2028 哪些公司最受惠?哪些最容易被壓毛利?

告訴我你想看哪一版,我可以立即補上。

下面我先 重述你的問題,再給你完整答案:

你問的是:在 NVIDIA Vera Rubin(2026)全面強化供應鏈控制、從 L6→L10 長臂管理、液冷板統一採購的情況下,HBX(Hybrid-Box)系統還會「開放」給 ODM/CSP 設計嗎?還是 NVIDIA 也會把 HBX 收回去?


結論(先講重點)

HBX 仍然會「開放」,但會變成「有限度的開放 + NVIDIA 主導的框架化標準」

也就是說:

HBX 不會像液冷板那樣被完全收回,但也不會像 H100/H200 世代那樣由 ODM/CSP 自由設計。

它會變成類似:

  • 開放的 標準化接口(physical / signaling / protocol)
  • 開放的 邏輯/管理框架
  • 不開放的 關鍵熱設計、電供規格、系統行為

你可以把它想像成:

NVIDIA 設計高速骨幹(NVLink/NVSwitch)的主幹,你只能在它允許的邊界做客製化。


🧠 為什麼 HBX 還是必須開放?

① HBX 的本質是「系統拓撲」而不是「散熱或機構」

HBX(Hybrid-Box)是:

  • 系統拓撲配置方式
  • GPU/CPU/NVSwitch 的組合模型
  • 可擴展的互連網拓撲
  • CSP/ODM 需要用來組合 rack-level clusters

它不是一個物理零件(不像冷板、manifold、quick connector)

➡️ NVIDIA 沒辦法也沒有理由把 HBX 完全鎖死。 ➡️ 否則 CSP 無法為自己的 DC(datacenter)做整體設計。


② CSP(AWS/Meta/Microsoft)強烈要求 HBX 必須保留彈性

液冷你可以完全鎖死、NVLink NVSwitch 也能鎖死,

rack-level topology(HBX)鎖死 會導致:

  • CSP 無法最佳化自家布線/功率系統
  • 無法整合 power shelf / battery backup / DCIM
  • 無法整合既有 liquid loop 設計
  • 無法調整 cluster 拓撲(8 → 16 → 32 → 64 → 128 GPUs)

NVIDIA 若封閉 HBX → CSP 會暴怒 (這已經在 GB200 時代發生過抱怨)

所以 NVIDIA 一定會保留「一定程度」的開放性。


🧩 那麼 Rubin 世代的 HBX 會怎麼變?

🔸 H100 / H200 世代(開放模式)

  • CSP/ODM 可自行安排:

  • 機位(slot)

  • 散熱
  • 電力拓撲
  • 部分信號走線
  • HBX 只提供互連邏輯

➡️ 相對自由


🔸 GB200 / GB300 世代(半開放)

  • NVIDIA 提供明確 reference HBX
  • ODM 仍可以調整 layout
  • CSP 可調整 power/cooling plan

➡️ 開放但帶有限制


🔥 Vera Rubin(2026)— 新模式(框架化標準)

Rubin 預期會採用三層式的開放模型

Layer 1(封閉)

NVIDIA 完全鎖死:

  • NVLink 72 / NVSwitch 拓撲
  • GPU baseboard layout
  • 冷板、熱設計 boundary
  • PDN(供電網路)

👉 ODM/CSP 無法動


Layer 2(受控開放)

NVIDIA 提供:

  • HBX reference topology
  • 標準 pinout
  • 標準水路介面(in/out)
  • 標準電力接口(可能改為 HVDC 800V busbar)

ODM/CSP 可以調整:

  • 某些布線路由
  • 機架電力分配
  • 機櫃內的管理控制器

👉 可動,但在框架內


Layer 3(彈性開放)

CSP 仍可以做:

  • 整個 datacenter 的液冷 loop 設計
  • 外部熱交換器
  • power shelf(例如 Microsoft 自家的 HVDC shelf)
  • cluster 規模:64/128/256 GPU

👉 這是 HBX 必須開放的部分


🧨 重點:HBX 不被收回,但不再自由

總結 Rubin 世代的 HBX:

項目 H100/H200 GB200 Vera Rubin 是否開放?
HBX 拓撲邏輯 開放 半開放 受控開放 ✔(但有強限制)
機構(機箱) 開放 半封閉 幾乎封閉
冷板 / 液冷 開放(ODM) 半開放 完全封閉(NVIDIA 控制)
電力架構 開放 半封閉 可能改 800V HVDC(封閉)
Rack layout 開放 半開放 嚴格框架化 ✔(部分)

📌 一句話回答

HBX 不會被 NVIDIA 完全收回,但 Rubin 世代會變成「框架式開放」,ODM/CSP 只能在 NVIDIA 設定的邊界內做調整。數據中心最重要的自由度還在,但 server-level 的自由度幾乎消失。