原文:【论文阅读】Learning From Multiple Experts: Self-paced Knowledge Distillation for Long-tailed Classification 向多专家学习:用于长尾分类的自定步长知识提炼

向多专家学习:用于长尾分类的自定步长知识提炼 目录 向多专家学习:用于长尾分类的自定步长知识提炼 Introduction Related Work 评估数据不平衡的动机和指标 讨论 实验 . 实验设置 . 在长尾分类基准上的主要结果 . 消融实验 Conclusions 在现实世界中,数据倾向于呈现长尾,不平衡的分布。因此,在实际应用中开发处理这种长尾分布的算法变得必不可少。在本文中,我们提出了 ...

2020-07-15 19:11 0 940 推荐指数:

查看详情

Long-Tailed Classification

Long-Tailed Classification 长尾(不均衡)分布下的分类问题简介 在传统的分类和识别任务中,训练数据的分布往往都受到了人工的均衡,即不同类别的样本数量无明显差异。一个均衡的数据集固然大大简化了对算法鲁棒性的要求,也一定程度上保障了所得模型的可靠性,但随着关注类别的逐渐 ...

Sun Oct 10 20:05:00 CST 2021 0 1038
知识蒸馏(Knowledge Distillation

知识蒸馏(Knowledge Distillation) 2018年06月04日 16:55:38 Law-Yao 阅读数 22009更多 分类专栏: 深度学习 模型压缩 优化加速 ...

Fri Sep 13 04:46:00 CST 2019 0 1539
BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition

  一篇解决图像识别问题中“长尾分布”的论文,也是cvpr20的oral,想法简洁有效:解耦分类网络的特征学习层和分类层。论文地址:BBN 。   常见的物体类别在识别问题中占据主导地位,而罕见的类别则数据较少。长尾分布在某种程度上可以视作比正态分布更广泛存在的一种自然分布,现实中主要表现在少量 ...

Tue Mar 17 19:42:00 CST 2020 2 2663
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM