图神经网络教程1-综述

2024-08-21 08:28
文章标签 神经 综述 网络教程

本文主要是介绍图神经网络教程1-综述,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

前言

介绍

贡献

分类

 预备知识

 学习方式

转导式学习

归纳学习

系列文章列表


前言

翻译自A Practical Tutorial on Graph Neural Networks,并给出详细的解释和注意事项以及个人的思考,原作者如下:

介绍

当代人工智能(AI),或更具体地说,深度学习(DL)近年来被神经网络(NN)所主导。NN变体被设计用于提高某些问题领域的性能;卷积神经网络(CNN)在基于图像的任务中表现突出,而循环神经网络(RNN)在自然语言处理(NLP)和时间序列分析领域表现突出。在更复杂的深度学习框架中,神经网络也被用作构建模块——例如,它们在生成对抗网络(GANs)中被用作可训练的生成器和鉴别器,以及在Transformer网络中作为组件。

图神经网络(gnn)提供了这些输入数据类型的统一视图:在计算机视觉中用作输入的图像和在NLP中用作输入的句子都可以解释为单一的、通用的数据结构的特殊情况——图(示例见图1)。形式上,图是一组不同的顶点(表示项目或实体),这些顶点可以通过边(表示关系)相互连接。唯一的是,输入GNN(在训练和评估期间)的图本身没有严格的结构要求;输入图之间的顶点和边的数量可以改变。通过这种方式,gnn可以处理非结构化、非欧氏数据[7],这一特性使它们在图数据丰富的问题领域具有价值。相反,基于nn的算法通常需要对具有严格定义维度的结构化输入进行操作。例如,建立在MNIST数据集上进行分类的CNN必须具有28 ×28神经元的输入层,并且所有后续输入图像的大小必须为28 ×28像素,以符合这个严格的维度要求[50]。图作为一种编码数据的方法的表现力和gnn在非结构化输入方面的灵活性,推动了它们的研究和发展。它们代表了一种探索相对通用的深度学习方法的新方法,并促进了深度学习方法在数据集上的应用,这些数据集直到最近才接触到人工智能。

贡献

本教程论文的主要贡献如下:

(1)一个易于理解的入门教程,不需要对GNNs1有任何先验知识。

(2)对支撑特定类gnn的机制的逐步解释,如表1所示。这些解释逐步建立了对gnn的整体理解。

(3)描述了GNNs的优缺点和关键应用领域。

(4)具体GNN变体如何应用于现实世界问题的完整示例。

分类

论文整体架构及分类见下表。

表1:本教程讨论了各种算法。下表列出了每种算法的潜在用例,以及讨论它们的章节。读者是否更喜欢从基于应用程序/下游任务的角度阅读这篇教程论文,如果是这样的话,请查看后面三个表(原文中为表5、表6和表8,此处不放)。

首先介绍以下架构:

  1. 图循环神经网络:图循环神经网络,图长短期记忆网络,门控图神经网络。
  2. 图卷积神经网络:空域图卷积神经网络,谱域图卷积神经网络。
  3. 图自编码:变种图自编码,图对抗技术。

 预备知识

本文非零基础教程,需具备以下知识:

  1. 数据结构中图的相关知识。
  2. 深度学习的基本知识,包括线性回归、Softmax回归、多层感知机、循环神经网络、卷积神经网络。
  3. 一定高等数学基础。

 学习方式

转导式学习

转导式学习方法在进行预测之前暴露所有的训练和测试数据。例如:我们的数据集可能由单个大图(例如Facebook的社交网络图)组成,并且只有部分标记的顶点集。训练集由标记的顶点组成,测试集由一小部分标记的顶点(用于基准测试)和剩余的未标记的顶点组成。在这种情况下,我们的学习方法应该在训练过程中暴露整个图(包括测试顶点),因为额外的信息(例如结构模式)将有助于学习。在不引入偏差而难以分离训练数据和测试数据的情况下,直推式学习方法很有用。

归纳学习

归纳学习方法保留独立的训练数据集和测试数据集。学习过程输入训练数据,然后使用测试数据对学习到的模型进行测试,这些数据是它之前从未观察到过的。 

系列文章列表

本系列文章持续进行更新和学习。链接如下:

  1. 循环图神经网络1
  2. 循环图神经网络2
  3. 卷积图神经网络1

这篇关于图神经网络教程1-综述的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1092633

相关文章

kaggle竞赛宝典 | Mamba模型综述!

本文来源公众号“kaggle竞赛宝典”,仅用于学术分享,侵权删,干货满满。 原文链接:Mamba模型综述! 型语言模型(LLMs),成为深度学习的基石。尽管取得了令人瞩目的成就,Transformers仍面临固有的局限性,尤其是在推理时,由于注意力计算的平方复杂度,导致推理过程耗时较长。 最近,一种名为Mamba的新型架构应运而生,其灵感源自经典的状态空间模型,成为构建基础模型的有力替代方案

AI文献综述神器,有这一款就够了!

我是娜姐 @迪娜学姐 ,一个SCI医学期刊编辑,探索用AI工具提效论文写作和发表。 当前的AI辅助文献综述的工具有很多,如果说功能最强大的,娜姐无疑要推SciSpace了。 SciSpace利用强大的AI算法,理解并建立研究论文之间的联系,可以大大提升文献综述的质量和效率。并且其功能还在不断更新和完善。        1 强大的语义搜索功能 传统的关键词搜索可能会遗漏相关文献,Sc

20180108文献综述书写感悟

在写文献综述理清各章节脉络的时候,发现了以下几个问题,共勉之。 1、资源对接问题:章节应该明确标注出处,来源,例如(from 百度/某篇文章链接),不写,则默认为原创。 以方便下一个接着写的同学清晰了解资料来源。 2、质量低:上任对发展史做了整理,但并没有输出成原创性文字,重新阅读加大理解成本,并且思路不新不全局不清晰,需要重新绘之。

Netty源码解析4-Handler综述

Netty中的Handler简介 Handler在Netty中,占据着非常重要的地位。Handler与Servlet中的filter很像,通过Handler可以完成通讯报文的解码编码、拦截指定的报文、 统一对日志错误进行处理、统一对请求进行计数、控制Handler执行与否。一句话,没有它做不到的只有你想不到的 Netty中的所有handler都实现自ChannelHandler接口。按照输入

如何快速写文献综述

真实参考文献的AI论文生成器:AIPaperDone - AI 万字论文生成 在本文中,你将学习如何为不同的学术领域撰写文献综述。 请注意: 文献综述并不是关于小说或诗歌等文学作品的。当我们说"文献",我们指的是某个领域的"研究"。撰写文献综述意味着收集你主题的关键资料,对它们进行概述,并分析它们之间的关系。 以下是如何快速完成的方法。 什么是文献综述? 文献综述是一篇学术论

pytorch+深度学习实现图像的神经风格迁移

本文的完整代码和部署教程已上传至本人的GitHub仓库,欢迎各位朋友批评指正! 1.各代码文件详解 1.1 train.py train.py 文件负责训练神经风格迁移模型。 加载内容和风格图片:使用 utils.load_image 函数加载并预处理内容和风格图片。初始化生成图像:将内容图像加上随机噪声作为初始生成图像。加载模型:实例化并加载神经风格迁移模型。设置优化器和损失函数:

零样本学习(zero-shot learning)——综述

-------本文内容来自对论文A Survey of Zero-Shot Learning: Settings, Methods, and Applications 的理解和整理,这里省去了众多的数学符号,以比较通俗的语言对零样本学习做一个简单的入门介绍,用词上可能缺乏一定的严谨性。一些图和公式直接来自于论文,并且省略了论文中讲的比较细的东西,如果感兴趣建议还是去通读论文 注1:为了方便,文中

卷积神经网络综述

摘要 本文对卷积神经网络(Convolutional Neural Network,CNN)进行了全面综述。首先介绍了卷积神经网络的发展历程,包括早期的理论基础和关键突破。接着详细阐述了卷积神经网络的结构组成,包括卷积层、池化层、全连接层等,分析了各层的作用和特点。然后探讨了卷积神经网络在图像识别、目标检测、语义分割等多个领域的应用,并介绍了一些典型的应用案例。此外,还讨论了卷积神经网络的训练方

自闭症谱系障碍:探索这一复杂神经发育障碍的奥秘

自闭症,也被称为孤独症谱系障碍(ASD),是一种深刻影响儿童神经发育的复杂障碍。它以独特的社交交流障碍、重复刻板行为以及兴趣范围的极度狭窄为主要特征,为患者及其家庭带来了诸多挑战。 自闭症的成因至今仍是科学界探索的热点,虽然遗传因素被普遍认为在其中扮演了关键角色,但环境因素、大脑结构和功能的异常等也可能对自闭症的发病产生影响。这种多因素交织的复杂性,使得自闭症的研究和治疗充满了挑战。 在临床上,自

复旦大学王龑团队发布《静态与动态情感的面部表情识别》综述

论文链接:https://arxiv.org/pdf/2408.15777 复旦大学,王龑博士后领衔,发布《静态与动态情感的面部表情识别》(A Survey on Facial Expression Recognition of Static and Dynamic Emotions)综述,对基于图像的静态面部表情识别(SFER)和基于视频的动态面部表情识别(DFER)方法进行了全面综述,从