论文阅读“Graph Contrastive Clustering”(ICCV2021)

论文题目

Graph Contrastive Clustering

作者,链接

作者:Zhong, Huasong and Wu, Jianlong and Chen, Chong and Huang, Jianqiang and Deng, Minghua and Nie, Liqiang and Lin, Zhouchen and Hua, Xian-Sheng

链接:ICCV 2021 Open Access Repository

Introduction逻辑

论文动机和现有工作的问题

监督学习需要标签,这意味着需要大量人力来标注

聚类作为无监督学习不需要标签,但是有两个明显的缺点1.对特征无区别2.特征提取和聚类过程分离导致次优解

现有模型学习到的特征判别力不够,模型中没有加入潜在类别信息

论文的核心创新点

假设集群中的样本及其增强样本应该共享相似的特征表示和集群分配

基于当前特征构建相似图,然后将其应用于表示学习和聚类学习

潜在的类信息被考虑

将图对比学习框架应用于聚类任务设计了GCC,提出 拉普拉斯图对比损失 the graph Laplacian based contrastive loss

相关工作

深度聚类

对比学习

论文方法

一组无标签图片集\textbf{I}=\{I_1,...,I_N\},有K个类别

学习一个映射函数\phi参数为\theta,将图片I_i映射到论文阅读“Graph Contrastive Clustering”(ICCV2021),其中Z_i是d维的特征向量,并且有论文阅读“Graph Contrastive Clustering”(ICCV2021)约束,然后P_i是K维的概率分布,满足论文阅读“Graph Contrastive Clustering”(ICCV2021),也就是分配给所有簇的概率之和为1。根据下列公式计算簇的分配

论文阅读“Graph Contrastive Clustering”(ICCV2021)

图对比 Graph Contrastive (GC)

定义无向图论文阅读“Graph Contrastive Clustering”(ICCV2021),其中V是顶点集论文阅读“Graph Contrastive Clustering”(ICCV2021),边集E可以用邻接矩阵A表示:

论文阅读“Graph Contrastive Clustering”(ICCV2021)

d_i定义为v_i的阶数,则有D矩阵为:

论文阅读“Graph Contrastive Clustering”(ICCV2021)

则G的归一化对称图拉普拉斯算子可定义为:

论文阅读“Graph Contrastive Clustering”(ICCV2021)

很容易验证有论文阅读“Graph Contrastive Clustering”(ICCV2021)

对于N个特征\textbf{x}=\{x_1,...,x_N\},在2范数的约束下,如果i与j的领接矩阵A_{ij}>0x_ix_j应该尽量靠近,如果A_{ij}=0则远离。假设图可以被划分为几个区,则同一个区中的特征表示的相似性应该比区之间的相似性大,即同区内的特征相似性比区之间大。有如下定义

论文阅读“Graph Contrastive Clustering”(ICCV2021)

那么一个区域的相似度之和为

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中论文阅读“Graph Contrastive Clustering”(ICCV2021)x_ix_j的相似度计算。因此,图比较的损失可以定义为论文阅读“Graph Contrastive Clustering”(ICCV2021)

最小化论文阅读“Graph Contrastive Clustering”(ICCV2021)允许网络同时增加区域内的相似度和降低区域内的相似度

图对比聚类 Graph Contrastive Clustering(GCC)

论文阅读“Graph Contrastive Clustering”(ICCV2021)

图特征对比representation graph contrastive (RGC),基于图特征对比学习,学习聚类友好特征。

图分配对比assignment graph contrastive (AGC),利用聚类级图对比学习实现最后的聚类分配。

在构建图之前,使用移动平均来减少模型波动带来的特征学习偏差

论文阅读“Graph Contrastive Clustering”(ICCV2021)代表模型,并且Z^{(t)}= \left(z_{1}^{(t)}, \cdots, z_{N}^{(t)}\right)=\left(\Phi_{\theta}^{(t)}\left(I_{1}\right), \cdots, \Phi_{\theta}^{(t)}\left(I_{N}\right)\right)代表第t个epoch学到的特征表示,则特征表示的平均移动定义为:

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中,\alpha是衡量当前和过去影响的参数,论文阅读“Graph Contrastive Clustering”(ICCV2021)

用下公式来构建KNN图

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中i,j \in \{1,...,N\}。由此,可以得到归一化的拉普拉斯算子L^{(t)}

相似函数

使用谱聚类中常用的高斯核函数Gaussian kernel function,来计算两个样本中的相似性

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中\tau代表方差或温度参数。

因为有\left\|x_{i}x_{j}\right\|_{2}^{2}=\left\|x_{i}\right\|_{2}^{2}+\left\|x_{j}\right\|_{2}^{2}-2 x_{i} \cdot x_{j}=$ $2-2 x_{i} \cdot x_{j}

所以相似度函数由上式变为下式

论文阅读“Graph Contrastive Clustering”(ICCV2021)

该图显示了比较

假设有一组图片\mathbf{I}^{\prime}=\left\{I_{1}^{\prime}, \ldots, I_{N}^{\prime}\right\}由随机数据增广,其对应的特征是\mathbf{z}^{\prime}=\left\{z_{1}^{\prime}, \ldots, z_{N}^{\prime}\right\}。如前所述,如果图中两点相连,那么z^{\prime}_iz^{\prime}_j应尽可能相似

在公式(5)中,令x=z^{\prime},则得到RGC的损失函数

论文阅读“Graph Contrastive Clustering”(ICCV2021)

图分配比较

在传统的基于聚类的对比学习中,图像及其增强结果应尽可能分配到同一个聚类中。在模型学习期间,图像及其邻居将具有高置信度的集群分配。

假设有一组图片\mathbf{I}^{\prime}=\left\{I_{1}^{\prime}, \ldots, I_{N}^{\prime}\right\}由随机数据增强,并且\tilde{\mathbf{I}}^{\prime}=\left\{\tilde{I}_{1}^{\prime}, \ldots, \tilde{I}_{N}^{\prime}\right\}满足\tilde{\mathbf{I}}^{\prime}_j是根据图A^{(t)}随机选择的邻居I^{\prime}。那么I^{\prime}\tilde{\mathbf{I}}^{\prime}的概率分布矩阵是

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中论文阅读“Graph Contrastive Clustering”(ICCV2021)表示I_i的随机选择的邻居,然后将它们变成列向量

论文阅读“Graph Contrastive Clustering”(ICCV2021)

那么,q^{\prime}_i\tilde{q}^{\prime}_i表示I^{\prime}\tilde{\mathbf{I}}^{\prime}中的哪一张图片将会被分配给第i个簇,则AGC的损失函数定义为

论文阅读“Graph Contrastive Clustering”(ICCV2021)

聚类正则化损失

为了防止所有样本被分配到同一个簇,需要进行簇正则化,用

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中论文阅读“Graph Contrastive Clustering”(ICCV2021)论文阅读“Graph Contrastive Clustering”(ICCV2021)\textbf{I}的分布概率。

全局损失函数为

论文阅读“Graph Contrastive Clustering”(ICCV2021)

其中\lambda\eta是超参数

算法流程

论文阅读“Graph Contrastive Clustering”(ICCV2021)

消融实验设计

图表比较损失的影响

聚类正则化损失的影响

自标签微调的影响

一句话总结

从图的内部关系出发,设计了比较学习模型,主要分为图的邻接关系和聚类结果两部分

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
扎眼的阳光的头像扎眼的阳光普通用户
上一篇 2022年4月20日
下一篇 2022年4月20日

相关推荐