文件列表:
民生证券:通信行业点评:散热是AI的“尽头”吗?.pdf |
下载文档 |
资源简介
>
风冷在AI数据中心的现实焦虑。2023年7月3日,“2023第四届中国电子通讯设备结构设计及热管理技术论坛”在上海举办,多位行业专家针对液冷进行深入分析。电流通过电阻时,所消耗的电能会转化为热能,即电流的热效应。由于早期计算机具备功耗低、体积大的特点,因此不需要单独设计系统级的散热解决方案,可直接通过背后放置风扇的方式将热流导出。而AI芯片的功耗随算力性能的提升快速增长,根据CIME,10年前市面上能买到的最顶级的数据中心GPU是英伟达K40,其热设计功耗(TDP)为235W,2020年英伟达发布A100时,热设计功耗接近400W,到了H100芯片,热设计功耗直接提升到700W。AI训练中心通常依靠高密度工作集群,往往会在至少数十个甚至数百个GPU上运行,每个GPU都有数千个内核需要供电。考虑到GPU的功耗可达700W甚至以上,AI服务器集群算力密度普遍有望达到20-50kW/机柜,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价会比大幅下降。登纳德缩放定律逐渐失效,数据中心机架功率密度有进一步提升趋势。目前,最新的计算芯片难以遵守登纳德定律的缩放,随着芯片集成度的提
加载中...
已阅读到文档的结尾了