【论文阅读 | AAAI2020】Unsupervised Attributed Multiplex Network Embedding

本文主要是介绍【论文阅读 | AAAI2020】Unsupervised Attributed Multiplex Network Embedding,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述

论文题目:Unsupervised Attributed Multiplex Network Embedding
论文地址:https://arxiv.org/abs/1911.06750
代码地址:https://github.com/pcy1302/DMGI

引用方式:
@article{park2019unsupervised,title={Unsupervised Attributed Multiplex Network Embedding},author={Park, Chanyoung and Kim, Donghyun and Han, Jiawei and Yu, Hwanjo},booktitle={AAAI},year={2020}
}

0 Abstract

问题:

  • 大多数现有的网络嵌入方法都假设节点之间只存在单一类型的关系
  • 对于考虑网络多重性的工作,他们往往忽略节点属性,只对于节点标签进行训练,并且无法对图的全局属性进行建模

本文:

  • 提出了一种用于多重属性网络的简单有效的无监督网络嵌入方法DMGI
  • 最大化图的局部和整个图的全局表示之间的互信息
  • 设计了一种系统的方法
    • 引入一致性正则化框架,最大限度地减少了关系类型特定节点嵌入之间的分歧
    • 用于区分真实样本的通用判别器
  • 注意机制推断每种关系类型的重要性,因此可用于过滤不必要的关系类型作为预处理步骤

1 Introduction

挑战:

学习节点的一致性表示,不仅要考虑其多重性,还要考虑其属性

相关工作:

  • 着重于多个图的整合,忽略了节点属性
  • 对于需要考虑节点属性的模型,也需要节点标签进行训练
  • 大多数都无法对图的全局属性进行建模

DGI是我们任务的主要方法,因为:

  • 使用 GCN 自然地整合节点属性
  • 以完全无监督的方式训练
  • 捕获整个图的全局属性

在本文中,我们提出了一种系统的方法来联合整合来自于节点之间的多种类型的关系的嵌入,以便于它们相互帮助学习对各种下游任务有用的高质量嵌入。

我们引入了一致性正则化框架,该框架将关系类型的具体节点嵌入之间的分歧最小化,并引入了通用判别器,该判别器可判别真实样本,即ground truth"(graph-level summary,local patch))"对,而不考虑关系类型。

证明了通过注意力机制,我们可以推断每种关系类型在生成一致性节点嵌入中的重要性,这可以作为预处理步骤用于过滤不必要的关系类型。

2 Problem Statement

Task:无监督的属性多重网络嵌入的任务是学习d维向量表示,不使用标签

3 Unsupervised Attributed Multiplex Network Embedding

Deep Graph Infomax (DGI):

DGI的目标:学习一个低维向量表示,即 h i ∈ R d h_i \in \mathbb{R}^d hiRd,使得图级(全局)summary representation s ∈ R d s \in \mathbb{R}^d sRd和局部补丁 { h 1 , h 2 , ⋯   , h n } \{ h_1,h_2, \cdots ,h_n\} {h1,h2,,hn}之间的平均互信息最大化

DGI引入了一个判别器D,区别真实的样本 ( h i , s ) (h_i,s) (hi,s)与其负样本 ( h j ~ , s ) (\tilde{h_j},s) (hj~,s)

L = ∑ v i ∈ V n l o g D ( h i , s ) + ∑ j = 1 n l o g ( 1 − D ( h j ~ , s ) ) \mathcal{L} = \sum_{v_i \in \mathcal{V}} ^n log \mathcal{D}(h_i,s) + \sum_{j=1} ^n log (1 - \mathcal{D} (\tilde{h_j},s)) L=viVnlogD(hi,s)+j=1nlog(1D(hj~,s))

  • h i = σ ( ∑ j ∈ N ( i ) 1 c i j x j W ) h_i = \sigma(\sum_{j \in N(i)} \frac {1} {c_{ij}} x_j W) hi=σ(jN(i)cij1xjW)
    • N ( i ) N(i) N(i)是节点 v i v_i vi的邻居,包括自身
    • W ∈ R f × d W \in \mathbb{R} ^{f \times d} WRf×d
    • c i j c_{ij} cij:是边 ( v i , v j ) (v_i,v_j) (vi,vj)的归一化常数
  • s = σ ( 1 n ∑ i = 1 n h i ) s = \sigma(\frac {1} {n} \sum_{i=1}^n h_i) s=σ(n1i=1nhi)
  • h j ~ \tilde{h_j} hj~

这篇关于【论文阅读 | AAAI2020】Unsupervised Attributed Multiplex Network Embedding的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/796569

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin