的映像 探索針對 AI 工作負載資料中心的液體冷卻解決方案

探索針對 AI 工作負載資料中心的液體冷卻解決方案

隨著訓練 LLM(大型語言模型)與執行推論 工作的需求日增,許多搭載 GPU 等加速器 的 AI 伺服器所產生的熱量也隨之增加,導致 必須導入液體冷卻系統。這些伺服器通常會 配置進出水管,並需整合多歧管、CDU(冷 卻分配單元)以及戶外排熱等元件,形成完 整的散熱生態系統。本文將介紹六種常見的 液體冷卻排熱架構,並提供選擇最合適架構 的建議,協助您為 AI 伺服器或叢集打造理想 的冷卻方案。

日期: 19 5月 2025 | 類型: Brochure
語言: 中文 | 版: 1.0
參考文件: TW_WP133

檔案

檔案名稱
Cooling-WP133_V2_TW.pdf