文件列表:
太平洋证券:传媒互联网行业周报:DeepSeek降低模型成本,Kimi+进一步扩宽应用场景.pdf |
下载文档 |
资源简介
>
报告摘要
DeepSeek-V2发布,模型成本显著下降
DeepSeek发布开源MoE大模型DeepSeek-V2,该模型能力突出,中文和英文综合能力评测得分分别接近于GPT-4-Turbo和LLaMA3-70B。值得注意的是,DeepSeek-V2显著降低模型训练和推理成本。1)训练成本方面,其稀疏MoE架构进行了共享专家等改进,相比V1的稠密模型,节约了42.5%的训练成本。2)推理成本方面,通过创新性地运用先进的注意力机制MLA,压缩token生成中对keyvalue的缓存,极大降低了推理成本。从API的定价来看,DeepSeek-V2API每百万tokens输入1元、输出2元,显著低于海内外主流大模型,如GPT-4-Turbo每百万tokens输入72元、输出217元,LLaMA3-70B每百万tokens输入27元、输出82元。我们认为,国内大模型正保持对海外大模型的加速追赶,并且模型推理成本下降有望进一步推动AI应用普及,看好国内大模型及应用的长期价值。
Kimi上线新功能Kimi+,实现应用场景扩展
Kimi上线新功能Kimi+,类似于ChatGPT的应用商店GPTs,旨
加载中...
本文档仅能预览20页