博士论文 | Pennsylvania 2024 | 满足需求的图机器学习 290页

文摘   2024-12-21 22:58   广东  

图(Graphs)是强大的数学工具,可以对复杂系统进行建模。图机器学习(Graph machine learning利用可能未知的数据结构,并提供统一的方法来解决各种各样的问题。然而,图机器学习解决方案往往受到三个主要限制:它们不会随着图的大小而扩展,它们对图的变化不具有鲁棒性,并且它们需要同质的(homogeneous)底层图。

在本文中,我们解决了所有这三个要求。在可扩展性(scalability)方面,我们表明图神经网络 (Graph Neural Networks,GNN) 会随着节点数量的增加而提高其泛化能力,这激发了对可扩展训练解决方案的需求。为此,我开发了两种在大型图(large scale graphs)上训练 GNN 的策略,首先是在训练时随时间增长图,其次将图分布在一组机器中并在空间中增长图。这两种方法减轻了在大型图上训练 GNN 所需的计算和通信成本,而不会影响准确性。

在稳健性(robustness)方面,尽管许多数据模态位于非常高维的空间中,但可以假设它们的动态属于低维结构。我们可以使用图拉普拉斯算子(graph Laplacian)对低维空间进行建模,并表明在流形上学习 Lipschitz 连续函数的问题等同于动态加权流形正则化问题(dynamically weighted manifold regularization problem)。

最后,异质性(heterogeneity)是网络的基本属性。即使网络由同质智能体(homogeneous agents)组成,每个智能体与环境的交互也会有所不同,这将转化为异构数据获取。不解决数据异构性质的图机器学习解决方案往往只会分配图中某些节点的需求。我提出了两种解决异质性的方法,一种是改善网络中所有单个组件的结果的单一解决方案,另一种是特定于节点的解决方案,这样网络中的每个智能体都可以在处理其各自数据时得到改进。

论文题目:Graph Machine Learning Under Requirements

作者Juan Cervino Remersaro

类型:2024年博士论文

学校:University of Pennsylvania(美国宾夕法尼亚大学)

下载链接:

链接: https://pan.baidu.com/s/1hPh_kvCgyyG6kXkqMtV43w?pwd=yvat

硕博论文汇总:

链接: https://pan.baidu.com/s/1Gv3R58pgUfHPu4PYFhCSJw?pwd=svp5



具有 50 个节点(a)、100 个节点(b)和 200 个节点(c)的随机图序列收敛到常数图元(d)。

将具有 9 个节点的图划分为 3 台机器的示例。每台机器仅存储其相应分区中节点的特征。

要计算梯度步骤,我们需要收集数据。为此,每台机器首先计算本地节点的激活。然后,这些激活被压缩并传达给相邻的机器。一旦所有激活都被传达,每台机器就会从压缩节点解压数据。

联邦学习问题的通信图。

投影 PC 对 N = 6 个策略的影响。红点表示投影后的策略 {hi}。空点表示投影前的策略 {h¯i}。中心交叉学习策略用 g 表示,对应于中心性度量。请注意,对于策略 h1,投影后策略保持不变,因为 h¯1 满足 (7.15) 中的限制。

用于模拟的非完整机器人模型。系统状态由元组 (do; φo; dg; φg; φobs) 给出;其中 do 和 dg 分别是代理与障碍物和目标之间的距离;φo 和 φg 是代理与障碍物和目标之间的角度;φobs 是障碍物的遮挡角度。系统动作由 ( _ z; _) 给出,其中 z_ 是径向速度,_ 是代理的角速度。

图 D.3a 显示了训练数据集,蓝色星星表示未标记的点,蓝色箭头表示红色星星处的最佳动作。图 D.3b 显示了使用流形学习学习到的函数,D.3c 显示了其关联的对偶变量。图 D.3d、D.3e、D.3f 分别显示了使用 ERM、环境正则化和流形正则化学习到的函数。

微信群

图科学实验室Graph Science Lab
分享有关图理论、图表示学习、图神经网络、图+交叉学科(生物、化学、物理 ...)、图+交叉算法(DL、RL、NLP、CV ...)最新科研资讯、论文、开源工具、招生/招聘、会议/竞赛、课程/书籍。秉持文理兼修,也分享人文作品。欢迎持续关注。
 最新文章