原文:Domain Adaptation for Semantic Segmentation via Class-Balanced Self-Training

目录 问题 方法 使用自步学习的自监督训练 类别平衡自监督训练 自步学习过程设计 空间先验 问题 主要解决的问题是自监督训练中,伪标签的质量问题。 方法 提出了一种基于迭代自训练过程的UDA框架,将问题表示为隐藏变量损失最小化,可以通过在目标数据上交替生成伪标签,并使用这些标签重新训练模型。 在自训练的顶层,提出了一个新的类别平衡自训练框架避免在伪标签生成过程中大类的梯度主导,并引入空间先验优化 ...

2020-06-09 10:10 0 623 推荐指数:

查看详情

self-training and co-training

半指导学习(Semi-supervised Learning)的概念说起来一点儿也不复杂,即从同时含有标注数据和未标注数据的训练集中学习模型。半指导学习是介于有指导学习与无指导学习之间的一种机器学习方 ...

Sat Oct 18 01:24:00 CST 2014 1 2228
Co-Training vs Self-Training

首先,在实际做classification的场景中,经常会遇到只有少量的labeled data而更多的data都是unlabeled 的情况。co-trainingself-training这两个算法即是用来解决这样情况的。 下面分别描述这两种算法: 1.Self-training ...

Fri Jan 12 15:16:00 CST 2018 0 2412
处理长尾问题:Class-Balanced Loss Based on Effective Number of Samples

这篇cvpr2019的论文主要提出了一个损失函数Class-Balanced Loss用来处理数据长尾问题 长尾问题是由于分类问题中数据集每类的数据量不同,导致分类准确度下降。举个极端点的例子有助于理解:A、B二分类问题,数据集中,A、B数据量比例为999:1,为了减少损失值,网络很自然的将所有 ...

Sat Jul 04 02:34:00 CST 2020 0 907
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM