本文主要是介绍Heterogeneous Graph Attention Network论文阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
论文实现了在异构图(节点和边的种类数大于2的图)实现Attention机制。
节点级别的:node-level Attention,学习节点和通过元路径与其相连的节点之间的重要程度。
语义级别的:semantic-level attention,学习不同元路径的重要程度。
不同的节点类型可能会有不同的特征空间。例如,人节点的属性有性别、姓名等,电影节点的属性有上映时间等。
异构图中有大量复杂且富含价值的语义信息,都是通过元路径来反映的。
semantic-level attention是用来学习每种元路径的重要性并赋予相应的权值。
就是说要求得一个节点的表征,分别按照某一个meta-path形成的网络进行Attention,然后每个meta-path的attention都形成后,再对所有的meta-path进行一个attention操作,最后求得节点的embedding。
这篇关于Heterogeneous Graph Attention Network论文阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!