Posts GAT
Post
Cancel

GAT

GCN缺点:

  • 模型对于同阶邻域上分配给不同邻居的权重是完全相同的(也就是GAT论文里说的:无法允许为邻居中的不同节点指定不同的权重)。这一点限制了模型对于空间信息的相关性的捕捉能力,这也是在很多任务上不如GAT的根本原因。
  • GCN结合临近节点特征的方式和图的结构依依相关,这局限了训练所得模型在其他图结构上的泛化能力。

GAT提出了用注意力机制对邻近节点特征加权求和。邻近节点特征的权重完全取决于节点特征,独立于图结构。

GATGCN的核心区别在于如何收集并累和距离为1的邻居节点的特征表示。图注意力模型GAT用注意力机制替代了GCN中固定的标准化操作。本质上,GAT只是将原本GCN的标准化函数替换为使用注意力权重的邻居节点特征聚合函数。

GAT优点:

  • GAT中,图中的每个节点可以根据邻节点的特征,为其分配不同的权值。
  • GAT的另一个优点在于,引入注意力机制之后,只与相邻节点有关,即共享边的节点有关,无需得到整张图的信息:
    • 该图不需要是无向的(如果边j→i不存在,我们可以简单地省略计算αij.
    • 它使我们的技术直接适用于inductive learning——包括在训练期间完全看不见的图形上的评估模型的任务。

图注意力网络(Graph Attention Networks)的重点就是attention. Attention就是图中每个node对于其相邻node的相互重要性。这个重要性可以进行量化,可以通过网络训练得到。

GAT tricks:

  • 使用attention机制来描述邻接节点对目标节点的重要性。
  • 采用邻接矩阵作为mask。
  • 引入了attention heads, 即K, 以扩展attention机制的channel.

参考【GNN】图注意力网络GAT(含代码讲解)

笔记:Pytorch-geometric: GAT代码超详细解读

GATConv-GRAPH ATTENTION NETWORKS

GATv2Conv-HOW ATTENTIVE ARE GRAPH ATTENTION NETWORKS

This post is licensed under CC BY 4.0 by the author.

Tiling

GCN