论文信息
论文标题:SCGC : Self-Supervised Contrastive Graph Clustering
论文作者:Gayan K.
Kulatilleke, Marius Portmann, Shekhar S. Chandra
论文来源:2022, arXiv
论文地址:download
论文代码:download
转自本人博客《论文解读(SCGC)《SCGC : Self-Supervised Contrastive Graph Clustering》
1 Introduction
为了利用结构中存在的丰富信息,许多研究人员将图神经网络(GNN)变体与AEs结合起来。这些方法存在的问题是:
- over-smoothing
- noisy neighbours (heterophily)
- the suspended animation problem
贡献:
- 提出一种有效的新型深度聚类模型
,消除了在整个学习层中携带结构/边缘信息的必要性; - 提出了一种新的影响增强对比(IAC)损失来合并图结构,它可以有效地将任何模型转换为图感知; 提出了
,一种利用预学习质心的更精简的变体,它使用了一半的原始参数,显著提高了训练和推理速度;
2 Method
整体框架如 Figure 1 所示:
2.1 Graph structure by contrastive loss
对比损失使正或连通节点更近,负或不连通节点在特征空间中更远。基于此思想,将拓扑结构信息合并到嵌入中。
2.1.1 Influence Augmented Contrastive (IAC) loss.
考虑不同深度的节点之间的影响(相连或不相连),并考虑不可加性以及可加性。对于可加性,对于一个给定的
其中,
先前的GNN模型假设了一个固定的深度关系,即通过超参数搜索获得的单个
给定
其中,
对于每个节点,它的
2.1.2 Determining Influence
由于真实世界的图通常非常稀疏,邻接矩阵
归一化邻接矩阵:
通过计算节点之间的累加关系作为节点关系强度,而不是限制在任意的第
与我们在影响方面的工作不同,Graph-MLP 提出了基于余弦相似度的 NContrast (NC) 损失进行分类,其中每个节点只考虑
2.2 Self supervised clustering
图聚类本质上是一项无监督的任务,没有反馈来指导优化过程。为此,使用概率分布导出的软标签作为聚类增强的自监督机制,有效地将聚类叠加到嵌入上。
首先获得软集群分配概率
其中,簇中心
节点在
其中,
为了使数据表示更接近聚类中心,将 KL 散度损失用于
2.3 Initial centroids and embeddings
为了提取节点特征并获得初始嵌入
2.4 Final proposed models
2.5 Complexity Analysis
给定输入数据维数
对于对比损失,我们计算了所有
3 Experiments
数据集
4 Conclusion
本文介绍了影响增强对比(IAC),这是一种新的图表示的自监督学习方法。它的可加性使更强的归纳偏差能够进行泛化,而不需要近似复杂图的潜在依赖关系和关系结构。使用IAC,我们的SCGC*比传统的基于GNN的方法提供了显著的优势;SCGC可以自然地适应本地、长期或任何节点依赖的混合组合,支持批处理,高效,具有线性推理的复杂性,并且可以简单地并行化。SCGC与先进技术相比取得了显著的改进(DBLP的NMIARI为18%,ACM训练时间减少了69%,训练时间减少了55%,推理时间减少了81%)。通过展示对比学习、聚类[2,27,29]和自动编码器模型[6,9,30]之间有效的图聚类的新可能性,我们希望为这些领域的模型改进提供灵感和指导,并解决本文概述的一些局限性。
文章出处登录后可见!