论文题目
Graph Contrastive Clustering
作者,链接
作者:Zhong, Huasong and Wu, Jianlong and Chen, Chong and Huang, Jianqiang and Deng, Minghua and Nie, Liqiang and Lin, Zhouchen and Hua, Xian-Sheng
链接:ICCV 2021 Open Access Repository
Introduction逻辑
论文动机和现有工作的问题
监督学习需要标签,这意味着需要大量人力来标注
聚类作为无监督学习不需要标签,但是有两个明显的缺点1.对特征无区别2.特征提取和聚类过程分离导致次优解
现有模型学习到的特征判别力不够,模型中没有加入潜在类别信息
论文的核心创新点
假设集群中的样本及其增强样本应该共享相似的特征表示和集群分配
基于当前特征构建相似图,然后将其应用于表示学习和聚类学习
潜在的类信息被考虑
将图对比学习框架应用于聚类任务设计了GCC,提出 拉普拉斯图对比损失 the graph Laplacian based contrastive loss
相关工作
深度聚类
对比学习
论文方法
一组无标签图片集,有K个类别
学习一个映射函数参数为
,将图片
映射到
,其中
是d维的特征向量,并且有
约束,然后
是K维的概率分布,满足
,也就是分配给所有簇的概率之和为1。根据下列公式计算簇的分配
图对比 Graph Contrastive (GC)
定义无向图,其中V是顶点集
,边集E可以用邻接矩阵A表示:
将定义为
的阶数,则有D矩阵为:
则G的归一化对称图拉普拉斯算子可定义为:
很容易验证有
对于N个特征,在2范数的约束下,如果i与j的领接矩阵
则
与
应该尽量靠近,如果
则远离。假设图可以被划分为几个区,则同一个区中的特征表示的相似性应该比区之间的相似性大,即同区内的特征相似性比区之间大。有如下定义
那么一个区域的相似度之和为
其中是
和
的相似度计算。因此,图比较的损失可以定义为
最小化允许网络同时增加区域内的相似度和降低区域内的相似度
图对比聚类 Graph Contrastive Clustering(GCC)
图特征对比representation graph contrastive (RGC),基于图特征对比学习,学习聚类友好特征。
图分配对比assignment graph contrastive (AGC),利用聚类级图对比学习实现最后的聚类分配。
在构建图之前,使用移动平均来减少模型波动带来的特征学习偏差
代表模型,并且
代表第t个epoch学到的特征表示,则特征表示的平均移动定义为:
其中,是衡量当前和过去影响的参数,
用下公式来构建KNN图
其中。由此,可以得到归一化的拉普拉斯算子
相似函数
使用谱聚类中常用的高斯核函数Gaussian kernel function,来计算两个样本中的相似性
其中代表方差或温度参数。
因为有
所以相似度函数由上式变为下式
该图显示了比较
假设有一组图片由随机数据增广,其对应的特征是
。如前所述,如果图中两点相连,那么
和
应尽可能相似
在公式(5)中,令,则得到RGC的损失函数
图分配比较
在传统的基于聚类的对比学习中,图像及其增强结果应尽可能分配到同一个聚类中。在模型学习期间,图像及其邻居将具有高置信度的集群分配。
假设有一组图片由随机数据增强,并且
满足
是根据图
随机选择的邻居
。那么
和
的概率分布矩阵是
其中表示
的随机选择的邻居,然后将它们变成列向量
那么,和
表示
和
中的哪一张图片将会被分配给第i个簇,则AGC的损失函数定义为
聚类正则化损失
为了防止所有样本被分配到同一个簇,需要进行簇正则化,用
其中和
是
的分布概率。
全局损失函数为
其中和
是超参数
算法流程
消融实验设计
图表比较损失的影响
聚类正则化损失的影响
自标签微调的影响
一句话总结
从图的内部关系出发,设计了比较学习模型,主要分为图的邻接关系和聚类结果两部分
文章出处登录后可见!