对比学习在深度图聚类方法

2024-01-25 20:28

本文主要是介绍对比学习在深度图聚类方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

图片

  今天给大家分享的是国防科技大学刘新旺老师团队发表在IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS的论文"Simple Contrastive Graph Clustering"。论文提出了一种简单高效的图对比学习聚类方法SCGC,SCGC十分轻量,并且和一般的深度图聚类相比,不需要花大量时间去预训练。文章提出了一种新的对比学习数据增强方法,设计了一种新颖的基于邻居节点的对比loss。

1 摘要

  近期,对比学习在深度图聚类中受到了广泛关注,因为其表现出了良好的性能。然而,复杂的数据增强和耗时的图卷积操作却降低了这些方法的效率。为了解决这个问题,作者提出了一种简单的对比图聚类(SCGC)算法,从网络架构、数据增强和目标函数等方面改进了现有的方法。在架构方面,本文的网络包括两个主要部分:预处理和网络主干。一个简单的低通去噪操作作为独立的预处理进行邻居信息聚合,只有两个多层感知器(MLPs)作为模型主体。对于数据增强,作者没有引入复杂的图操作,而是通过设计参数不共享的MLP编码器和直接扰动节点嵌入,构建了同一顶点的两个增强视图。最后,对于目标函数,为了进一步提升聚类性能,作者设计了一种新的跨视图结构一致性目标函数,以增强学习网络的判别能力。在七个基准数据集上的广泛实验结果证实了本文提出的算法的有效性和优越性。显著的是,本文的算法在平均性能上至少比最近的对比深度聚类算法平均快七倍。

2 方法

符号与问题定义

  首先定义图的节点集为,节点的属性表示为。以此为基础,可以构建一个无向图。图的度定义为,而图的拉普拉斯矩阵表示为。通过使用图卷积网络(GCN)中的重整化技巧,得到图的对称归一化拉普拉斯矩阵。

  深度图聚类的目标是将图的节点分割为几个独立的群体。更具体地说,可以使用无监督方式预训练一个神经网络,该网络能够编码图的节点和结构信息,表示为:

  编码完成后,可以使用K-means、谱聚类等聚类算法,将节点的嵌入划分为独立的群组:

整体框架

图片

SCGC的整体架构

  SCGC主要包含了低通噪声滤波、结构对比模块两个部分。

低通滤波处理噪声

  近期的研究表明,拉普拉斯滤波器能够实现与图卷积网络(GCN)相同的效果。受此启发,作者提出了一种低通滤波操作,用于聚合邻近节点的信息,从而有效地过滤掉属性中的高频噪声。具体来说,作者引入了图拉普拉斯滤波器:

其中,代表对称归一化的图拉普拉斯矩阵。作者将个图拉普拉斯滤波器进行了堆叠:

  这种低通滤波的降噪操作有效地过滤了高频噪声,从而提升了聚类性能和训练效率。

结构对比模块的优化

  作者提出了一种称为SCM的方法,旨在保持两个不同视图之间的结构一致性,以此提升网络的判别能力。具体来讲,作者首先对平滑后的属性使用MLP编码器编码,然后将得到的结点嵌入进行L2规范化:

其中和表示学习到的节点嵌入的两个增强视图。为了进一步保持两个视图的不一致性,作者在嵌入中添加了高斯噪声:

  作者设计了两个参数不共享的MLP编码器来实现视图的增强,这种增强方式仅通过扰动嵌入而非采用复杂的图增强方式,效果显著。此外,最近的一些研究显示,复杂的图数据增强方式,例如增加、减少边、图扩散等,可能会导致语义偏移,这也得到了作者后续实验的证实。

  接着,作者提出了一种新颖的、面向邻居的对比损失函数,以保持跨视图的一致性。具体来说,作者计算了跨视图采样的相似度矩阵:

其中代表第i个节点和第j个节点的嵌入的余弦相似度。然后,作者强制让跨视图采样的相似度矩阵与自环邻接矩阵保持一致:

  在这里,作者将跨视图的邻居节点视为正采样,非邻居节点视为负采样,优化的目标是将正采样拉近,负采样推远。

融合和聚类

  作者融合了两个结点的增强视图:

  然后,作者直接利用嵌入Z进行K-means聚类。

目标函数

  作者直接去优化上述提出的面向邻居的对比loss:

  作者分析了loss的时间复杂度。给出采样数目N和学到的特征维度d的时间复杂度为,对齐的复杂度为,整体的复杂度为。整体的细节算法流程如下:

图片

SCGC的算法描述

3 实验

  为验证SCGC的有效性和效率,作者在如下的7个benchmark数据集上进行了实验:

图片

实验数据集

  同时,作者将SCGC和13个基线算法进行对比在四种指标上进行了对比:

图片

性能对比

  K-means聚类直接在属性上进行聚类,效果不好。基于谱的方法SSGC和本文的方法相比,忽略了对比学习强监督信息。SCGC超过了目前优代表性的深度学习聚类方法,因为他们仅考虑了结点属性,忽略了图的拓扑信息。现有的对比学习方法达到了SCGC的次优。原因是本文的方法优化了采样的判别能力。

  时间和显存消耗是评估算法效率的重要指标。由于本文的算法的模型结构非常简单,只有两层MLP,并且解构了GCN,使用低通滤波降噪来聚合邻居信息,所以十分高效。

图片

时间成本比较

  同时,本文的方法在显存占用上,取得了和经典深度学习相当的显存占用。并且和对比学习图聚类算法相比,节省了59%的显存占用。作者将这个归结于两个原因:1、SCGC的MLP编码器很轻量;2、提出的方法在潜空间上进行数据增强。

图片

显存占用比较

  作者进行了消融实验,证明了低通滤波器、数据增强手段是有效的。

图片

消融实验

  同时,作者对聚类结果进行了可视化。视觉的结果表明,与其他基线相比,SCGC更好地揭示了内在的聚簇结构。

图片

聚类结果可视化

4 总结

  本文介绍了一种改进版的对比学习图聚类方法——SCGC。这一方法在网络架构、数据增强以及目标函数等方面优化了现有的技术。其被视为一种可应用于社区检测、文档挖掘、宏基因组包、单细胞RNA测序和知识图谱等领域的工具。

  然而,SCGC也存在一些限制:首先,它依赖于预设的聚类数量,无法自动确定聚类的数量;其次,SCGC只适合处理中等规模的图,无法应对大型图数据。

  鉴于上述不足,作者已规划了未来的改进计划:一是采用基于密度的聚类方法或基于强化学习的策略,以解决需要预设聚类数量的问题;二是为了能够处理大规模图数据,计划设计更高效的时间和空间采样、聚类方法;三是使该方法能够适应同质图和异质图的需求。

这篇关于对比学习在深度图聚类方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/644509

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验