文件列表:
华福证券:电子行业专题报告:如何测算文本大模型AI训练端算力需求?.pdf |
下载文档 |
资源简介
>
投资要点:
需求侧:ScalingLaw驱动大模型算力需求不减
ScalingLaw仍然是当下驱动行业发展的重要标准。ScalingLaw的基本原理是,模型的最终性能主要与计算量、模型参数量和数据大小三者相关,当不受其他两个因素制约时,模型性能与每个因素都呈现幂律关系。因此,为了提升模型性能,模型参数量和数据大小需要同步放大。从大模型数量上看,近年来呈现爆发式增长趋势。且由于尖端AI模型对于资源投入的大量需求,产业界对于大模型的影响力逐步加深。我们统计了产业界诸多公开披露的大模型训练数据,从大模型算力需求来看,GPT-3到GPT-4参数上从175B快速提升到1.8TB(提升9倍),训练数据量(Token数)同方向快速增长,由0.3TB提升至13TB(提升42倍)。绝对值上看,根据我们的非完全统计情况,国内外主流大模型在参数量上基本已来到千亿量级,在预训练数据规模上均已来到个位数乃至十位数的TB量级。
供给侧:黄氏定律推动英伟达GPU一路高歌
英伟达GPU持续引领全球AI算力发展,虽然“摩尔定律”逐步放缓,但“黄氏定律”仍在支撑英伟达GPU算力快速提升,一方面,英伟达寻求制程工艺迭代、更
加载中...
已阅读到文档的结尾了