隨著訓練 LLM(大型語言模型)與執行推論 工作的需求日增,許多搭載 GPU 等加速器 的 AI 伺服器所產生的熱量也隨之增加,導致 必須導入液體冷卻系統。這些伺服器通常會 配置進出水管,並需整合多歧管、CDU(冷 卻分配單元)以及戶外排熱等元件,形成完 整的散熱生態系統。本文將介紹六種常見的 液體冷卻排熱架構,並提供選擇最合適架構 的建議,協助您為 AI 伺服器或叢集打造理想 的冷卻方案。
檔案