文件列表:
在严格预算下从相近任务中提炼知识以进行迁移学习【英文版】.pdf |
下载文档 |
资源简介
>
英文标题:Distilling from Similar Tasks for Transfer Learning on a Budget中文摘要:本文提出了一种名为 DistillNearest 和 DistillWeighted 的多源蒸馏方法,通过利用任务相似度度量来选择单个合适的源模型以及加权多源蒸馏方法,解决了在资源受限制的情况下,通过有限标签获取高效而准确识别系统的问题。通过实验验证表明,这两种方法在准确性、计算效率等方面优于传统的迁移学习和半监督学习方法。英文摘要:We address the challenge of getting efficient yet accurate recognitionsystems with limited labels. While recognition models improve with model sizeand amount of data, many specialized applications of computer vision havesevere resource constraints both during
加载中...
本文档仅能预览20页