1
题目:Federated Graph Condensation with Information Bottleneck Principles
作者:Bo Yan, Sihao He, Cheng Yang, Shang Liu, Yang Cao, Chuan Shi
摘要:图压缩通过合成小规模的压缩图来替代大规模图,从而减小了大规模图的尺寸,已经使各种图学习任务受益。然而,现有的图压缩方法依赖于集中式数据存储,这对于现实世界的分散式数据存储是不可行的,并且也忽视了数据持有者的隐私保护需求。为了填补这一研究空白,我们提出并研究了基于图神经网络(GNN)的联邦图压缩问题(FGC)。具体而言,我们首先提出了一个用于 FGC 的通用框架,将图压缩的经典梯度匹配过程解耦为客户端梯度计算和服务器端梯度匹配。然而,实验表明,压缩图会持续泄露数据成员隐私,即联邦训练期间成员推理攻击(MIA)可以通过压缩图来得到原始图的信息。为了解决这个问题,我们创新性地将信息瓶颈原理融入 FGC,只需要事先通过本地预训练来转换原始节点特征,并使用这些特征来进行联邦训练。实验和理论分析表明,我们的框架可以在训练期间持续保护成员隐私,同时可以实现与现有的集中式图压缩和联邦图学习方法相当甚至更好的性能。
2
题目:Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective
作者:Zhongjian Zhang,Mengmei Zhang,Xiao Wang,Lingjuan Lyu,Bo Yan, Junping Du,Chuan Shi
摘要:为缓解信息过载问题,推荐系统被设计用于向用户推荐物品。在其训练阶段,用户数据通常集中存储,但这增加了隐私风险。为了保护用户隐私,基于联邦学习的联邦推荐应运而生,其核心思想是将个人数据保存在本地设备上,并通过协作更新模型。我们发现,与联邦学习不同,联邦推荐具有独特的稀疏聚合机制,其中每个物品的嵌入只能由部分客户端更新,而不是像通用联邦学习中的密集聚合那样由所有客户端更新。近年来,作为联邦学习核心原则的模型安全性引起了越来越多的关注,尤其是拜占庭攻击问题,即恶意客户端可以发送任意更新。在联邦推荐的应用领域(例如电子商务)中,攻击者通过注册新账户可以轻易引入恶意客户端,探索联邦推荐的拜占庭鲁棒性问题显得尤为关键。然而,现有的拜占庭研究忽视了联邦推荐独特的稀疏聚合特性,因此不适用于我们的场景。因此,我们首次从稀疏聚合的角度研究了联邦推荐中的拜占庭攻击问题,这一问题并非易事:如何在稀疏聚合下定义拜占庭鲁棒性以及在有限知识/能力下设计拜占庭攻击尚不明确。在本文中,我们通过将单个物品的聚合作为最小执行单元,重新定义了稀疏聚合下的拜占庭鲁棒性。随后,基于攻击者的知识和能力,我们提出了一系列利用稀疏聚合漏洞的高效攻击策略,称为Spattack。大量实验结果表明,Spattack能有效阻止模型收敛,甚至在少量恶意客户端的情况下突破现有防御机制,为联邦推荐系统的安全性敲响了警钟。
3
题目:Blend the Separated: Mixture of Synergistic Experts for Data-Scarcity Drug-Target Interaction Prediction
作者:Xinlong Zhai, Chunchen Wang, Ruijia Wang, Jiazheng Kang, Shujie Li, Boyu Chen, Tengfei Ma, Zikai Zhou, Cheng Yang, Chuan Shi
摘要:药物-靶点相互作用预测(DTI)在药物发现和临床应用等各种场景中至关重要。DTI预测中广泛使用的输入数据有两种视角:内在数据代表药物或靶标的结构,外在数据代表药物或靶标与其他生物实体的关系。然而,对于某些药物或靶点,输入数据的两个角度中的任何一个都可能是稀疏的,特别是对于那些不流行或新发现的药物或靶点。此外,特定交互类型的真实标签也可能很少。因此,我们提出了一个方法来解决输入数据和/或标签稀缺情况下的DTI预测。为了使我们的模型在只有一种输入数据可用时发挥作用,我们设计了两个独立的专家来分别处理内在和外在数据,并根据不同的样本自适应地融合它们。此外,为了使两种角度相互补充并弥补标签稀缺性,两个专家以相互监督的方式相互协同,以利用大量的未标签数据,并从数学上证明了我们的协同机制的有效性。在不同程度的输入数据稀缺和/或标签稀缺情况下对3个真实世界数据集进行的广泛实验表明,我们的模型显著且稳定地优于现有技术,最大改进为53.53%。我们还在没有任何数据稀缺的情况下测试了我们的模型,它也优于当前的方法。
4
题目:Harnessing Language Model for Cross-Heterogeneity Graph Knowledge Transfer
作者:Jinyu Yang, Ruijia Wang, Cheng Yang, Bo Yan, Qimin Zhou, Juan Yang, Chuan Shi
摘要:异质图含有丰富的节点和边类型,在现实世界中广泛存在。考虑到异质图中往往存在标签稀疏问题,一些研究人员提出在“预训练,微调”的范式,即在源异质图中预训练提取通用知识,之后在目标异质图中微调实现知识转移。然而,现有方法总是假设源异质图和目标异质图具有相同的异质性,意味着它们含有完全相同的节点和边类型,而这与实际场景不符。尽管近期有研究对跨异质性学习进行了初步尝试,但其对通用知识的定义过于依赖人类知识,缺乏灵活性,并进一步导致了次优的迁移效果。为了解决这一问题,我们提出了一种全新的基于语言模型增强的跨异质性学习模型LMCH。首先,我们设计了一种基于元路径的语料库构建方法,将异质图统一表示为语言形式。然后,源异质图的语料库被用来微调语言模型(LM),使得语言模型能够自主地从不同的异质图中提取通用知识。最后,为了充分利用目标异质图中大量未标注的节点,我们借助额外的图神经网络(GNN)预测器提出了一种迭代训练流程,并在每次迭代结束时通过LM-GNN对比对齐进行增强。针对四个真实世界数据集的广泛实验结果表明,LMCH在性能上优于现有的最先进方法。
长按下图并点击“识别图中二维码”
即可关注北邮 GAMMA Lab 公众号