先進晶片熱傳-散熱解決方案:液冷技術

2025

熱傳工程

AI 與高效能運算(HPC)全面推升算力需求的當下,熱傳工程已成為次世代晶片設計中最關鍵的瓶頸之一。當電荷在奈米級金屬互連間高速流動時,不可避免地引發 Joule Heating(焦耳加熱),使邏輯單元與功率模組的溫度持續爬升。若熱量無法藉由有效的界面材料與散熱架構及時導出,不僅會造成熱阻急遽上升,更會導致時脈降頻(Thermal Throttling)、可靠度衰退,甚至縮短晶片整體作業壽命。

伴隨製程技術推進至 2 nm、1 nm 節點,晶片結構朝更高密度的 3D IC、Chiplet、異質整合發展,單位面積所承受的熱流密度呈倍數成長。這代表在極微小的封裝體積內,功率密度已突破傳統氣冷與單一界面材料所能負荷的範圍,使熱管理從附屬工程正式提升為晶片設計驗證(Design Validation)與系統架構(System Architecture) 的核心課題。

在這個高熱時代,如何降低界面熱阻、提升散熱通道的等效熱導率與效率化PUE,並讓熱量以最短路徑被導向基板、散熱器或液冷迴路,已成為推動先進晶片性能極限的關鍵戰場。

氣冷機櫃

趨勢

相較ABF有機載板,FCBGA(Flip-Chip Ball Grid Array)封裝架構在熱性能上展現更高優勢,根據現有客戶分享樹脂結構容易產生 熱翹曲與更好的熱導率低、更高的可靠度。晶片透過下方凸塊(Solder Bump / Micro-bump)直接與基板電性連接,使散熱設計能將散熱器精準定位於晶片頂部。為滿足更高的熱通量需求,業界開始大量採用金屬散熱片 作為封裝上層材料,藉由高導熱界面材料(TIM1 / TIM2)將晶片熱源快速均溫化後,傳導至散熱片,再藉由外部散熱模組帶走熱量。

然而,面對動輒 700 W~1000 W 熱設計功耗TDP 的下一代 AI 加速器與 HPC 晶片,傳統氣冷或一般液冷方案已逐漸逼近極限。因此,業界開始轉向更單刀直入的直接液冷(Direct Liquid Cooling) 架構,其中最具突破性的就是微通道水冷板(MLCP, Micro-Channel Liquid Cooling Plate)

MLCP 將 均熱片(Vapor Chamber / Heat Spreader)、水冷板(Cold Plate)、封裝上蓋(Package Lid) 與 裸晶(Die) 進行高度模組化整合,於內部刻蝕或加工 微米級窄通道(50–200 μm),讓冷卻液以極短距離直接流經晶片熱源上方。此設計使散熱機制從傳統的:

「間接換熱(die → TIM → heat spreader → cooler)」

提升為:

直接換熱(coolant → micro-channels → above-die)

由於 傳熱路徑劇烈縮短、界面熱阻顯著下降、熱導傳輸損耗減少,MLCP 可在極有限的封裝高度中提供超過傳統冷板 2–4 倍以上的散熱能力,是面向下一代 AI GPU、數據中心加速器與高熱通量封裝之具革命性的冷卻技術之一。

D2C優勢

隨著 HBM4(High Bandwidth Memory 4) 與次世代加速器平台的功率密度進一步飆升,傳統風冷或板級液冷已無法有效處理千瓦級熱設計功耗TDP。因此,資料中心領域正快速轉向 Direct-to-Chip(D2C)液冷架構,即將冷板直接耦合於主要發熱體──包括 CPU、GPU、AI ASIC 與多層堆疊記憶體模組。

在 D2C 系統中,冷板以高導熱材料(如銅、AlSiC、CNT 增強複材)製成,內部雕刻單相或兩相傳熱通道。工程級冷卻液在冷板內 高速湍流循環(Turbulent Flow),可在最靠近熱源的位置吸收熱通量,隨後回流至 冷卻液分配單元 CDU(Coolant Distribution Unit) 進行熱交換,再重新輸送至冷板形成閉環熱管理系統。藉由讓冷卻液直接承接處理器的熱負載,D2C 大幅降低熱阻,並使整體 PUE更具能源效率。

先進的直冷技術不只改變散熱路徑,也建構了新的設計準則。透過直接接觸熱交換(Direct Contact Heat Extraction)、相變強化冷卻(Two-phase Cooling) 或流體動力學優化通道(Optimized Fluid Dynamics Channels),D2C 能提供極高的熱傳性能,並維持晶片在更嚴格的溫度窗口內運作,以避免熱跑偏(Thermal Runaway)與降頻。

D2C 冷卻系統通常搭配水基冷卻液(Coolants),例如低電導率、高沸點、低腐蝕性的合成流體。相較於水,它們具備更高的介電強度與更佳的材料相容性,能安全應用於高電壓、高密度封裝與複雜電力電子模組。

由於冷板與封裝的高度整合,D2C 亦能改善機架空間使用效率(Rack Density)並提升資料中心部署的彈性,使其成為支撐新一代 AI 超級運算平台的核心散熱技術。

D2C挑戰

1. 封裝整合複雜度劇增

D2C 必須將冷板直接貼合在晶片或 HBM 堆疊上方,對於封裝工程挑戰:TIM1 壓力控制、封裝蓋關注熱翹曲可能性(Thermal Warpage)、HBM的應力-堆疊敏感性。


2. 流體相容性與材料可靠度

因冷板、管路與伺服器機板靠得非常近,冷卻液必須滿足:

  • 低導電性
  • 不腐蝕鋁、銅、鎳、焊錫、AlSiC、陶瓷材料
  • 不溶解塑料、膠材(O-ring, EPDM, FKM, TPU, PPS)

客戶測試西班牙老鷹牌Brugarolas BRADOL IT-GR


3. 泵浦與壓降管理

D2C 冷板的通道通常非常窄(幾百微米),為了提升傳熱係數必須設計高速流體,但需要關注:壓降急遽上升、泵浦功耗、系統噪音與振動問題。

在高密度機架中,大量冷板並聯會導致整體流體網路的壓力管理複雜度大幅上升。


4. CDU 與機架層級的冗餘、維護與可靠度

D2C 依賴 CDU 提供冷卻液循環與換熱,因此需要:雙泵冗餘(Redundancy)、雙熱交換器冗餘、24/7 監控流量、流阻、導電度、液位。

任何污染、氣體滯留、微粒沉積都可能造成熱阻飆升,必須頻繁維護。

資料中心的痛點包括:

  • 冷板漏液(Leakage Risk)
  • 快速接頭(Quick Disconnect)長期耐久性
  • 液體更換週期(Coolant Lifecycle)
  • 環保永續性(Sustainability)

5. 部署與生態系統挑戰

D2C 的部署不像氣冷即插即用,它涉及整個資料中心基礎建設改造:

  • 需要液冷機架(Liquid-Ready Rack)
  • 需要水迴路與機房冷卻水塔整合
  • 供應鏈目前仍缺乏統一標準(冷板尺寸、流量、壓力規格不一致)
  • OCP雖在制定規範,但尚未完全統一

此外,AI 伺服器的 加速器更新速率(每 12–18 個月) 遠快於機房基建更新週期(5–10 年),造成 冷板與平台不兼容問題。


6. 兩相冷板式液冷的額外挑戰

如果使用兩相冷板,還會面臨:氣液分佈不均、蒸汽堵塞、沸點控制與壓力容器安全要求、工程冷卻液的相變壽命、化學穩定性等。

這些潛在問題等,截至目前,兩相式液冷 D2C 尚未大規模量產。


小結:D2C 冷板式冷卻的本質挑戰

系統設計、封裝整合與資料中心部署成本與原氣冷設計相對高。但優勢在於節省能源(電力)的潛力、節省空間(同樣空間放得下更多的Tray)的潛力、以及面臨將來更高的電力消耗的單元,是必須邁向的一哩路。

主要面向:

  • HBM4 / HBM3E 3.5D 封裝
  • AI GPU、加速器(Nvidia Blackwell、AMD MI300 等)
  • 超級計算機(Exascale HPC)

Brugarolas

歐洲老鷹牌特種潤滑劑

自1885年創立,總部位於巴賽隆納的西班牙老鷹Brugarolas Lubricants致力於潤滑劑應用的創新,全產品符合RoHS指令,對您的產品進出口毋須擔心限用物質檢測。爲您的設備延長壽命,降低使用成本。全產品線對應各種行業應用,水泥、食品、造紙、航太至電子業、先進製程等,如您有下述未提及的產品,如特殊潤滑產品需要應用,歡迎致電我們的工程師。

我們的優勢:

  • 減少摩擦和磨損、降低異音
  • 延長部件壽命
  • 防止污染
  • 承受真空需求
  • 提高功能性和可靠性
  • 提高產線良率
  • 低氣味
  • 現場安全
  • 非危險品
  • PFAS free
  • RoHS, REACH, SVHC符合
  • 不含鹵素
  • 降低綜合成本

請仔細填寫表單,公司、部門、用點、使用溫度、潤滑環境…等,清楚說明,收到訊息後我們工程師會立即與您聯繫。

    © Copyright - 厚誠貿易有限公司
    - design by Morcept
    error: Content is protected !!