Contrastive Learning based Hybrid Networks for Long-Tailed Image Classification(2022.5.12)

(一)解决的问题:

数据的长尾分布,导致对样本分类时对多数类的偏向,使得训练出有偏分类器。

(二)动机:

提出了一种新的混合网络,包括监督对比损失学习图像特征和交叉熵损失分类器,以实现长尾图像分类。

(三)步骤:

  1. 先对输入的图像通过Backbone(比如Resnet),得到一些图像的特征分布。
  2. 上面的结构主要对特征分布进行对比学习,正样本拉近、负样本原理的操作;下面的结构是一个分类器,主要对形成的特征空间进行分类。

α会随着训练的进行逐渐减小,这样做是很合理的,因为前期的话模型会注重特征的分布,而不是注重分类器的分类,只有不断的训练模型,不断进行对比学习,各个类的特征分布才会更加明显,这样的话,模型才将重心放在分类器的训练上,让分类器更容易的去分类。

(四)SCL损失函数:

解释:

|{Zi+}|是正样本的个数。

分子中Zi·Zj是表示Zi与正样本的内积,越大表示越接近

(五)PSC损失函数

定义,PSCL对其求导为常数

原式可化为

分母排除了的主导项,从而导致一个显著的梯度。正类梯度恒定,负类梯度显著,有助于缓解过采样中的过拟合,增强特征的类间可分性。

分母与SC也有区别,它是和每一个负样本所对应的prototype进行对比,和batch大小无关。

(六)MPSC损失函数

这是有多个prototype的情况

(七)消融实验:

(1)解耦模型与一般模型的对比

(2)PSC损失与交叉熵损失

(3)分类方式的对比:

在交叉熵损失下,类平衡抽样比随机抽样的准确率下降约5%。说明PSC损失对数据采样的敏感性,而 HybridPSC网络使用随机抽样和类平衡抽样的性能相当,这表明HybridPSC可以缓解过抽样(类平衡抽样属于过抽样)带来的过拟合问题。

(4)PSC和SC的对比

PSC在iNaturalist中的效果好于SC

因为与iNaturalist数据集中的类数相比,SC的batch太小,无法提供足够的负样本来学习高质量的特征。PSC损失避免了这个问题,无论batch大小,每个样品都将与所有负prototype进行对比。由于这个原因,Hybrid-PSC具有优越的分类性能。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2022年5月13日
下一篇 2022年5月13日

相关推荐

此站出售,如需请站内私信或者邮箱!