论文:Active Domain Adaptation via Clustering Uncertainty-Weighted Embeddings
代码:https://github.com/virajprabhu/CLUE
我是计算机视觉研究员,欢迎交流。
Abstract
本文通过主动学习方式,解决在域适应问题(Domain adaptation)中,选择信息量最大的目标域(target domain)子集做标签,得到最大的域适应性能效益,本文称此问题为主动域适应(Active DA)。提出了基于特征(embeding)不确定性加权的聚类,选择权衡了模型不确定性和特征空间多样性的目标域样本,在多个域适应数据集,多种域适应训练的范式下,实现了比其他样本选择策略取得了更好的域适应效果。
1. Introduction
2. Related Works
3. Method
3.1 问题设定
我们讨论了主动学习增益域适应问题。与将在源域上训练的模型推广到未标记的目标域的传统域适应问题不同,可以选择查询一小部分目标域数据的标签。本文研究了如何使用主动学习来选择一批有价值的数据进行标注。
3.2 基于特征不确定性加权的聚类(Clustering Uncertainty-weighted Embeddings)
定义一个样本的不确定性(uncertainty)和域性质(domainness)为其在源域模型中预测的各个类的熵,并认为熵越大概率越趋近于目标域的样本。
下一步是定义多样性。这里用的是特征提取器的embedding(也就是分类头之前一层的特征),根据embedding作为输入,希望将目标域数据(此时均为未标注)划分为K个尽可能不同的子集。设聚类的优化对象是每个子集的中心,选到最好的子集中心的依据有两方面:一方面是要把一个子集中的样本对之间的方差优化的小一点,这同时将导致不同子集之间的样本对之间的方差大:
上式中,是数据x的embedding。
另一方面是要在划分的时候要把每个子集中元素和中心的距离优化的小一点,这里用到了不确定作为距离的权重,为之后不确定性和多样性的权衡(trade-off)作了准备:
在选择样本的时候希望得到的重要性权重是模型不确定性和特征空间的多样性之间的平衡,权衡就是通过温度T实现。提高则是提高了每个样本每个预测类的熵,那么每个样本的不确定都很大没有很大的差距,这时候多样性占到了主导作用。反之亦然。
上式中,是可控温度,是样本x的分类logits。
选择样本时,在每个簇中选择离簇中心最近的样本进行标注,得到本轮标注图像。
Domain adaptation
获取标签后进入主动DA的下一步训练,已有的数据包括:获取的目标数据标签、有标记的源数据和未标记的目标数据。在实验中,用三种学习策略:
i)根据目标数据标签对源域模型进行finetune
ii)根据DANN[10]增加一个目标交叉熵损失,实现领域对抗性学习
iii)通过极大极小熵(MME[33),实现半监督域适应
三种设置下的实验结果也优于其他策略,说明所选样本集的有效性。
4. Experiment
这篇文章开源,方法简单但在多个分类数据集上多种设定已经丰富的参数设定下给出了有说服力的结果。笔者仍然在复现实验,本文有10个赞再更新对实验的分析。
Ref
[10] Unsupervised domain adaptation by backpropagation.(ICML2015)
[33] Semi-supervised domain adaptation via minimax entropy. (ICCV2019)
版权声明:本文为博主49号西瓜原创文章,版权归属原作者,如果侵权,请联系我们删除!
原文链接:https://blog.csdn.net/weixin_42126945/article/details/123387316