先進晶片熱傳-散熱解決方案:液冷技術
2025
熱傳工程
在 AI 與高效能運算(HPC)全面推升算力需求的當下,熱傳工程已成為次世代晶片設計中最關鍵的瓶頸之一。當電荷在奈米級金屬互連間高速流動時,不可避免地引發 Joule Heating(焦耳加熱),使邏輯單元與功率模組的溫度持續爬升。若熱量無法藉由有效的界面材料與散熱架構及時導出,不僅會造成熱阻急遽上升,更會導致時脈降頻(Thermal Throttling)、可靠度衰退,甚至縮短晶片整體作業壽命。
伴隨製程技術推進至 2 nm、1 nm 節點,晶片結構朝更高密度的 3D IC、Chiplet、異質整合發展,單位面積所承受的熱流密度呈倍數成長。這代表在極微小的封裝體積內,功率密度已突破傳統氣冷與單一界面材料所能負荷的範圍,使熱管理從附屬工程正式提升為晶片設計驗證(Design Validation)與系統架構(System Architecture) 的核心課題。
在這個高熱時代,如何降低界面熱阻、提升散熱通道的等效熱導率與效率化PUE,並讓熱量以最短路徑被導向基板、散熱器或液冷迴路,已成為推動先進晶片性能極限的關鍵戰場。
氣冷機櫃
趨勢
相較ABF有機載板,FCBGA(Flip-Chip Ball Grid Array)封裝架構在熱性能上展現更高優勢,根據現有客戶分享樹脂結構容易產生 熱翹曲與更好的熱導率低、更高的可靠度。晶片透過下方凸塊(Solder Bump / Micro-bump)直接與基板電性連接,使散熱設計能將散熱器精準定位於晶片頂部。為滿足更高的熱通量需求,業界開始大量採用金屬散熱片 作為封裝上層材料,藉由高導熱界面材料(TIM1 / TIM2)將晶片熱源快速均溫化後,傳導至散熱片,再藉由外部散熱模組帶走熱量。
然而,面對動輒 700 W~1000 W 熱設計功耗TDP 的下一代 AI 加速器與 HPC 晶片,傳統氣冷或一般液冷方案已逐漸逼近極限。因此,業界開始轉向更單刀直入的直接液冷(Direct Liquid Cooling) 架構,其中最具突破性的就是微通道水冷板(MLCP, Micro-Channel Liquid Cooling Plate)。
MLCP 將 均熱片(Vapor Chamber / Heat Spreader)、水冷板(Cold Plate)、封裝上蓋(Package Lid) 與 裸晶(Die) 進行高度模組化整合,於內部刻蝕或加工 微米級窄通道(50–200 μm),讓冷卻液以極短距離直接流經晶片熱源上方。此設計使散熱機制從傳統的:
「間接換熱(die → TIM → heat spreader → cooler)」
提升為:
「直接換熱(coolant → micro-channels → above-die)」
由於 傳熱路徑劇烈縮短、界面熱阻顯著下降、熱導傳輸損耗減少,MLCP 可在極有限的封裝高度中提供超過傳統冷板 2–4 倍以上的散熱能力,是面向下一代 AI GPU、數據中心加速器與高熱通量封裝之具革命性的冷卻技術之一。
D2C優勢
隨著 HBM4(High Bandwidth Memory 4) 與次世代加速器平台的功率密度進一步飆升,傳統風冷或板級液冷已無法有效處理千瓦級熱設計功耗TDP。因此,資料中心領域正快速轉向 Direct-to-Chip(D2C)液冷架構,即將冷板直接耦合於主要發熱體──包括 CPU、GPU、AI ASIC 與多層堆疊記憶體模組。
在 D2C 系統中,冷板以高導熱材料(如銅、AlSiC、CNT 增強複材)製成,內部雕刻單相或兩相傳熱通道。工程級冷卻液在冷板內 高速湍流循環(Turbulent Flow),可在最靠近熱源的位置吸收熱通量,隨後回流至 冷卻液分配單元 CDU(Coolant Distribution Unit) 進行熱交換,再重新輸送至冷板形成閉環熱管理系統。藉由讓冷卻液直接承接處理器的熱負載,D2C 大幅降低熱阻,並使整體 PUE更具能源效率。
先進的直冷技術不只改變散熱路徑,也建構了新的設計準則。透過直接接觸熱交換(Direct Contact Heat Extraction)、相變強化冷卻(Two-phase Cooling) 或流體動力學優化通道(Optimized Fluid Dynamics Channels),D2C 能提供極高的熱傳性能,並維持晶片在更嚴格的溫度窗口內運作,以避免熱跑偏(Thermal Runaway)與降頻。
D2C 冷卻系統通常搭配水基冷卻液(Coolants),例如低電導率、高沸點、低腐蝕性的合成流體。相較於水,它們具備更高的介電強度與更佳的材料相容性,能安全應用於高電壓、高密度封裝與複雜電力電子模組。
由於冷板與封裝的高度整合,D2C 亦能改善機架空間使用效率(Rack Density)並提升資料中心部署的彈性,使其成為支撐新一代 AI 超級運算平台的核心散熱技術。
D2C挑戰
1. 封裝整合複雜度劇增
D2C 必須將冷板直接貼合在晶片或 HBM 堆疊上方,對於封裝工程挑戰:TIM1 壓力控制、封裝蓋關注熱翹曲可能性(Thermal Warpage)、HBM的應力-堆疊敏感性。
2. 流體相容性與材料可靠度
因冷板、管路與伺服器機板靠得非常近,冷卻液必須滿足:
- 低導電性
- 不腐蝕鋁、銅、鎳、焊錫、AlSiC、陶瓷材料
- 不溶解塑料、膠材(O-ring, EPDM, FKM, TPU, PPS)
客戶測試西班牙老鷹牌Brugarolas BRADOL IT-GR
3. 泵浦與壓降管理
D2C 冷板的通道通常非常窄(幾百微米),為了提升傳熱係數必須設計高速流體,但需要關注:壓降急遽上升、泵浦功耗、系統噪音與振動問題。
在高密度機架中,大量冷板並聯會導致整體流體網路的壓力管理複雜度大幅上升。
4. CDU 與機架層級的冗餘、維護與可靠度
D2C 依賴 CDU 提供冷卻液循環與換熱,因此需要:雙泵冗餘(Redundancy)、雙熱交換器冗餘、24/7 監控流量、流阻、導電度、液位。
任何污染、氣體滯留、微粒沉積都可能造成熱阻飆升,必須頻繁維護。
資料中心的痛點包括:
- 冷板漏液(Leakage Risk)
- 快速接頭(Quick Disconnect)長期耐久性
- 液體更換週期(Coolant Lifecycle)
- 環保永續性(Sustainability)
5. 部署與生態系統挑戰
D2C 的部署不像氣冷即插即用,它涉及整個資料中心基礎建設改造:
- 需要液冷機架(Liquid-Ready Rack)
- 需要水迴路與機房冷卻水塔整合
- 供應鏈目前仍缺乏統一標準(冷板尺寸、流量、壓力規格不一致)
- OCP雖在制定規範,但尚未完全統一
此外,AI 伺服器的 加速器更新速率(每 12–18 個月) 遠快於機房基建更新週期(5–10 年),造成 冷板與平台不兼容問題。
6. 兩相冷板式液冷的額外挑戰
如果使用兩相冷板,還會面臨:氣液分佈不均、蒸汽堵塞、沸點控制與壓力容器安全要求、工程冷卻液的相變壽命、化學穩定性等。
這些潛在問題等,截至目前,兩相式液冷 D2C 尚未大規模量產。
小結:D2C 冷板式冷卻的本質挑戰
系統設計、封裝整合與資料中心部署成本與原氣冷設計相對高。但優勢在於節省能源(電力)的潛力、節省空間(同樣空間放得下更多的Tray)的潛力、以及面臨將來更高的電力消耗的單元,是必須邁向的一哩路。
主要面向:
- HBM4 / HBM3E 3.5D 封裝
- AI GPU、加速器(Nvidia Blackwell、AMD MI300 等)
- 超級計算機(Exascale HPC)
歐洲老鷹牌特種潤滑劑
自1885年創立,總部位於巴賽隆納的西班牙老鷹Brugarolas Lubricants致力於潤滑劑應用的創新,全產品符合RoHS指令,對您的產品進出口毋須擔心限用物質檢測。爲您的設備延長壽命,降低使用成本。全產品線對應各種行業應用,水泥、食品、造紙、航太至電子業、先進製程等,如您有下述未提及的產品,如特殊潤滑產品需要應用,歡迎致電我們的工程師。
我們的優勢:
- 減少摩擦和磨損、降低異音
- 延長部件壽命
- 防止污染
- 承受真空需求
- 提高功能性和可靠性
- 提高產線良率
- 低氣味
- 現場安全
- 非危險品
- PFAS free
- RoHS, REACH, SVHC符合
- 不含鹵素
- 降低綜合成本
請仔細填寫表單,公司、部門、用點、使用溫度、潤滑環境…等,清楚說明,收到訊息後我們工程師會立即與您聯繫。






