文件列表:
华金证券:传媒:Gemma2发布,降本提效延展AI生态.pdf |
下载文档 |
资源简介
>
投资要点
热点事件:6月27日,Google面向全球研究人员和开发人员发布Gemma2大语言模型,目前有90亿参数(9B)和270亿参数(27B)两种大小,并将在未来几个月发布参数为26亿的Gemma2模型,更适合智能手机的人工智能应用场景。大语言模型持续迭代,降本增效有望加速AI赋能B端和C端应用和生产。
Gemma2带来效率和性能的提升。目前,Gemma2共推出9B和27B两种参数,与上一代相比性能大幅度提升,但部署要求大幅度下降,只需一块NVIDIAH100TensorCoreGPU或TPU主机就能使用。架构方面:基于上一代进行了全方位改良,使用局部滑动窗口注意力和全局注意力,其中局部注意力层的滑动窗口大小设置为4096个tokens,全局注意力层的跨度设置为8192个tokens。训练数据方面:Gemma2的27B模型使用了13万亿tokens的英文数据进行训练,9B模型使用了8万亿tokens数据,这些数据包括网页文档、代码、论文和科学文章等。训练策略方面:Gemma2使用了知识蒸馏方法,通过学习大型教师模型给出的输出概率进行训练,以较小规模复制卓越性能。通过MBPP、MML
加载中...
已阅读到文档的结尾了