点击下方“PaperEveryday”,每天获得顶刊论文解读
点击加入论文投稿、写作、阅读分享交流群
论文信息
题目:Learning Graph Attentions via Replicator Dynamics
通过复制动态学习图注意力
作者:Bo Jiang; Ziyan Zhang; Sheng Ge; Beibei Wang; Xiao Wang; Jin Tang
论文创新点
图复制器注意力(GRA)模型:提出了一种新的基于复制器动态的图注意力学习模型——图复制器注意力(GRA),该模型能够通过自监督的方式显式学习上下文感知和保留稀疏性的图注意力系数。 结构信息的融合:GRA模型能够充分利用图边缘的结构信息,通过注意力信息在不同边缘间的扩散/传播,捕捉边缘的上下文信息,而不是仅依赖于边缘或节点的特征,从而提高了图神经网络(GNNs)的性能。 理论和效率的双重优势:GRA不仅在理论上可以从能量最小化框架得到解释,而且在实际应用中具有高效的计算复杂度,类似于图卷积操作,可以简单高效地实现,并且能够有效缓解过平滑问题,提高模型在多个图学习任务上的表现。
摘要
关键字
图注意力网络 复制器动态 图扩散 图神经网络
I. 引言
II. 基于复制器动态学习图注意力
A. 自注意力
B. 通过复制器动态的注意力扩散
与常规图注意力(方程(1))相比,GRA系数的每条边缘是通过聚合其相邻边缘的消息来学习的,因此在其学习过程中可以有效捕获上下文信息。GRA也可以从能量最小化的角度进行解释,如第三节所讨论的。 图注意力矩阵的固有稀疏属性在GRA学习中自然保留,即如果,则。这将在第三节进一步证明。 类似于图卷积[1]操作对于图节点学习,我们的GRA操作(方程(4))具有简单的公式。复杂度分析:由于和都是稀疏矩阵,它可以被高效地实现为两个稀疏矩阵的乘积,即和。GRA的主要计算复杂度在于计算,大约是,其中表示边的数量,表示节点的数量。同时,在方程(4)中计算元素乘积和加法操作的复杂度是。因此,整体复杂度是,模型因此被高效实现。
C. 节点特征传播
D. 实现
III. 理论分析
A. 与相关工作的比较
IV. 实验
A. 数据集
B. 传导学习
C. 半监督节点聚类
D. 归纳学习
E. 图分类
F. 链接预测
G. 参数分析
H. 可视化演示
V. 结论
声明
#论 文 推 广#
让你的论文工作被更多人看到
你是否有这样的苦恼:自己辛苦的论文工作,几乎没有任何的引用。为什么会这样?主要是自己的工作没有被更多的人了解。
计算机书童为各位推广自己的论文搭建一个平台,让更多的人了解自己的工作,同时促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 计算机书童 鼓励高校实验室或个人,在我们的平台上分享自己论文的介绍、解读等。
稿件基本要求:
• 文章确系个人论文的解读,未曾在公众号平台标记原创发表,
• 稿件建议以 markdown 格式撰写,文中配图要求图片清晰,无版权问题
投稿通道:
• 添加小编微信协商投稿事宜,备注:姓名-投稿
△长按添加 PaperEveryday 小编