×
img

施耐德电气:2024智算中心液冷架构探讨白皮书

发布者:wx****39
2024-07-19
1 MB 13 页
人工智能(AI)
文件列表:
施耐德电气:2024智算中心液冷架构探讨白皮书.pdf
下载文档

许多用于训练大型语言模型(LLM)和推理工作负载 的配备了加速器(如 GPU)的人工智能服务器会产生 足够的热量,因此需要采用液冷进行冷却。这些服务 器配备了输入输出管道,并且需要一个由歧管 (Manifolds)、冷却分配单元(CDUs)和室外散 热机组组成的生态系统。针对六种适用于液冷的常见 散热架构,我们提供指南以选出最符合您的人工智能 服务器或集群的架构。


加载中...

已阅读到文档的结尾了

下载文档

网友评论>