JCP || opPINN:结合算子学习的物理信息神经网络用于逼近 Fokker-Planck-Landau 方程的解

文摘   2024-11-25 19:02   美国  
最近不少道友后台反馈说收不到公众号的推文,我查了相关规则发现,微信公众号发布了新规则,只有点亮小星星才能第一时间收到文章推送,步骤如下:

点击上方蓝字关注我吧!

opPINN:结合算子学习的物理信息神经网络用于逼近 Fokker-Planck-Landau 方程的解opPINN: Physics-informed neural network with operator learning to approximate solutions to the Fokker-Planck-Landau equation

摘要

我们提出了一种混合框架 opPINN:结合算子学习的物理信息神经网络(Physics-Informed Neural Network, PINN),用于逼近 Fokker-Planck-Landau (FPL) 方程的解。opPINN 框架分为两个步骤:步骤 1 和步骤 2。在步骤 1 中完成算子替代模型的训练后,在步骤 2 中,PINN 能够通过使用预训练的替代模型高效逼近 FPL 方程的解。算子替代模型通过逼近 FPL 方程中复杂的 Landau 碰撞积分,极大地降低了计算成本并提升了 PINN 的性能

这些算子替代模型还可以与传统的数值计算方法相结合。在速度模式数量增加的情况下,这种方法在计算时间上表现出较高的效率。通过 opPINN 框架,我们为 FPL 方程在多种初始条件和二维、三维相互作用模型下提供了神经网络解。此外,基于 FPL 方程的理论特性,我们证明了当预定义的损失函数减小时,近似的神经网络解会收敛于 FPL 方程的经典先验解

1. 引言

1.1 动机与主要结果

Fokker-Planck-Landau (FPL) 方程是描述带长程相互作用的带电粒子碰撞的基本动力学模型之一。由于其在物理学中的重要性,许多数值方法被开发出来。然而,非线性和高维变量使得高效且准确地模拟 FPL 方程变得困难。模拟 FPL 方程的主要挑战之一在于碰撞积分算子。速度域中的复杂三重积分-微分算子需要仔细处理,因为它与诸如总质量、动量和动能的守恒等宏观物理量相关。

针对 FPL 方程的各种数值方法已被研究 [18]。其中,基于快速傅里叶变换的快速谱方法被提出以提高精度和效率 [20,49]。该方法将二次 Landau 碰撞算子 的计算复杂度从 降低到 ,其中 是离散速度空间中的模式数。然而,随着 的增加,该方法仍需要大量的计算成本。

近年来,基于深度学习的方法被开发用于求解偏微分方程 (PDE),具有许多优势。特别是,物理信息神经网络 (PINN) [51] 通过最小化 PDE 残差的最小二乘误差来学习神经网络参数。PINN 可以通过从 PDE 域中进行网格采样而不对域进行离散化,学习得到无网格解。此外,PINN 使用强大的自动微分技术,可以轻松计算任意阶的函数导数。

然而,直接将 PINN 应用于复杂 PDE 仍存在一些困难。当 PDE 包含复杂积分时,PINN 需要在积分的同时对给定域中的网格点进行采样。这使得使用 PINN 来逼近方程解的计算成本较高,尤其是当方程的维度较高时。处理包含复杂碰撞算子的动力学方程直接使用 PINN 并不容易。

为了解决上述困难,我们提出了一个混合框架 opPINN,该框架高效地结合了 PINN 和算子学习方法,用于逼近 FPL 方程的无网格解。算子学习是一种深度学习方法,用于从无限维函数到无限维函数的映射学习。许多包含卷积神经网络的神经网络结构被开发为替代模型,用于在 PDE 的各种问题中学习算子 [43,46,60]。我们提出的 opPINN 框架 使用算子学习来逼近 FPL 方程中 Landau 碰撞积分的复杂算子。

opPINN 框架分为两个步骤:步骤 1 和步骤 2。在步骤 1 中,预训练算子替代模型。利用预训练的算子替代模型,在步骤 2 中通过 PINN 有效地逼近 FPL 方程的解,同时显著降低计算成本。此外,算子替代模型具有极大的灵活性,可以与已有的传统数值方法(如有限差分法 (FDM) 和时间离散化方案)相结合,用于模拟 FPL 方程。由于在算子替代模型预训练后只需推理时间,当速度模式数 增加时,该方法在计算时间上表现出高效性。

许多工作已将算子学习与 PINN 相结合 [45,55,61]。这些研究着重于结合 PDE 约束,从 PINN 的角度学习解算子。相反,我们提出的 opPINN 专注于使用带有预训练积分算子的 PINN 来逼近给定积分-微分 PDE 的解。因此,opPINN 框架 可以充分利用 PINN 的优势。所提出的框架生成的无网格解可以对每个输入变量连续求导。此外,通过在神经网络结构的最后一层中使用 softplus 激活函数,逼近的神经网络解在所有连续时间点保持非负性。这一点在动力学方程的数值方法中通常难以实现,但却至关重要。

许多研究 [28,48,58] 使用深度学习来逼近 FPL 方程或 Boltzmann 方程中的碰撞积分算子。其中,文献 [48,58] 直接使用算子学习来逼近碰撞算子。然而,这些研究在实验结果上存在一些不足,例如对于各种初始条件下的逼近解的时间演化,以及逼近解的理论平衡趋势的缺乏。此外,文献 [28] 通过结合 Bhatnagar-Gross-Krook (BGK) 求解器和先验的 Maxwellian 平衡知识来逼近 Boltzmann 方程的解,而不是直接求解 Boltzmann 方程。他们还仅关注于具有一维或二维速度变量的简化分布解。

此外,这些研究也未能提供理论保证,即 FPL 方程和 Boltzmann 方程的解可以通过神经网络结构很好地逼近。对于数值分析而言,方程求解器的理论依据至关重要。在本研究中,我们通过 FPL 方程的理论背景提供了理论支持,证明 opPINN 框架 可以逼近 FPL 方程的解。

主要贡献如下:

  • 我们提出了混合框架 opPINN,结合算子学习方法和 PINN(见图 1)。在步骤 1 中,预训练算子替代模型;在步骤 2 中,利用预训练的算子替代模型,通过 PINN 有效逼近 FPL 方程的解。算子替代模型通过有效逼近 FPL 方程中的 Landau 碰撞积分,大幅降低计算成本并提升 PINN 性能。据作者所知,这是首次尝试使用算子学习来提高 PINN 在复杂 PDE 上的算法效率。

  • 算子替代模型具有极大的灵活性,可以与现有传统数值方法结合,例如有限差分法 (FDM) 和时间离散化方案(见图 6)。当速度模式数 增加时,算子替代模型在逼近 Landau 碰撞算子时具有较高的计算效率(见图 5),因为在模型预训练后只需进行算子推断。

  • opPINN 框架生成的 FPL 方程的无网格解在时间上连续平滑,并在任意时间点保持非负性。利用 opPINN 框架,我们针对二维和三维不同初始条件和相互作用模型的齐次 FPL 方程提供了神经网络解,并基于动力学理论证明神经网络解逐点收敛到平衡态。此外,我们还提供了包括质量、动量、动能和熵在内的宏观物理量的图像。

  • 我们提供了理论支持,证明 opPINN 框架 可以逼近 FPL 方程的解。基于 FPL 方程的理论特性,通过所提出的 opPINN 框架逼近的神经网络解,在预定义的总损失减少时,收敛到 FPL 方程的先验经典解。

1.2 Fokker-Planck-Landau 方程

FPL 方程是一种动力学模型,用以描述粒子的分布函数 ,其中 表示时间, 表示位置, 表示速度。 维 (通常 ) 的 FPL 方程为:

其中 ,且 。碰撞核 由以下 矩阵定义:

其中 正交平面上的正交投影, 是距离的幂指数, 表示硬势模型, 表示软势模型。 对应于 Maxwell 分子模型,而 (当 )对应于库仑相互作用模型。

在本文中,我们研究 维齐次 FPL 方程,其形式为:

Landau 碰撞项 可重写为以下形式:

其中


1.3 基本物理量性质与平衡态

FPL 方程的碰撞算子在代数结构上与 Boltzmann 算子类似,这导致 FPL 碰撞算子具有以下物理性质。密度 、平均速度 和温度 定义为:

众所周知 [54],FPL 方程 (1.3) 保持以下物理量的守恒:

  • 质量守恒:

  • 动量守恒:

  • 动能守恒:

此外,系统的熵定义为:

且熵为非增加函数,即:

FPL 方程的平衡态被称为 Maxwellian 分布,其形式为:

1.4 相关研究

FPL 算子最初是从 Boltzmann 算子的极限导出而来,当所有二元碰撞都为掠射碰撞时即可得到该算子 [2,13,14]。这一极限最早由 Landau 提出 [36]。针对 FPL 方程,有许多理论研究。其中,Desvillettes 和 Villani 在 [16,17] 中证明了当 时,空间齐次 FPL 方程弱解的存在性、唯一性和光滑性。Chen 在 [11] 中研究了 Landau 方程弱解的正则性。对于硬势情况,FPL 方程解的指数收敛性在 [7] 中被证明。而对于软势情况 (),Fournier 和 Guerin 在 [22] 中利用概率技术证明了 Landau 方程弱解的唯一性。在经典解框架下,Guo 在 [25] 中建立了当初值接近 Maxwellian 时的全局时间解的存在性和稳定性。关于 FPL 方程的更多分析性研究,可参考文献 [1,6,8,15,21,23,26,57] 及其中的引用内容。

针对 FPL 方程的许多数值方法已被开发,用于评估具有 复杂度的二次碰撞算子 ,其中 是离散速度空间中的模式数。在过去的几十年里,许多研究提出了基于概率的方法,称为粒子方法 [12],它使用粒子位置的 Dirac delta 函数的线性组合。Carrillo 等人在 [9,10] 中提出了一种新颖的粒子方法,能够保持 Landau 算子的关键性质,例如质量、动量、能量的守恒以及熵的递减性。

此外,还有许多确定性方法用于逼近复杂的 Landau 碰撞算子 [4,50,59]。最近,一种基于有限差分法 (FDM) 的数值方法被开发用于齐次 FPL 方程 [56]。这些方法旨在满足物理量的守恒性、解的正性以及向 Maxwellian 平衡的收敛性。然而,由于三重碰撞积分的计算复杂性,许多工作集中于各向同性情况或简化问题。

另一方面,基于谱方法的不同方案也被研究用于 FPL 方程。Pareschi 等人在 [49] 中首次提出了傅里叶谱方法,通过快速傅里叶变换模拟齐次 FPL 方程,从而将计算复杂度从 降低到 。随后,Filbet 和 Pareschi 在 [20] 中将谱方法扩展到具有一维空间和二维速度的非齐次 FPL 方程。结合 Hermite 展开的谱方法也被提出 [40,41]。Filbet 在 [19] 中使用谱配置方法减少了离散卷积的数量。此外,还有其他快速算法将计算成本降低到 ,如多网格算法 [5] 和多极展开算法 [39]。对于非齐次 FPL 方程,还提出了一种渐近保序算法 [31]。

随着计算能力的提高,深度学习方法在包括 PDE 求解器在内的科学计算中得到了应用。解决 PDE 的深度学习方法主要分为两类:直接使用神经网络对 PDE 解进行参数化,以及使用神经网络作为替代模型来学习解算子。

第一类方法由许多研究提出 [34,35,37,47,52]。最近,Raissi 等人在 [51] 中开发了物理信息神经网络 (PINN)。他们通过最小化 PDE 残差的最小二乘误差来参数化 PDE 的解。在 [27,53] 中,作者展示了 PINN 在求解高维 PDE 时的能力。作者在 [30,38] 中研究了 Vlasov-Poisson-Fokker-Planck 方程及其扩散极限,并提供了理论证明,表明神经网络解在所提损失函数减少时收敛到动力学方程的先验经典解。综述文章 [32] 及其引用包含了 PINN 的最新趋势和多样化应用。

第二类方法被称为算子学习。神经网络被用作从给定 PDE 的参数到其解或目标函数的映射。Li 等人在 [43,44] 中提出了一种学习 PDE 解算子的迭代方法,称为神经算子 (neural operator)。Lu 等人在 [46] 中基于函数算子通用逼近定理提出了 DeepONet。作者在 [45,55,61] 中通过使用 PDE 信息作为附加损失函数,扩展了之前的算子学习模型以学习更精确的解算子。作者在 [28] 中结合 BGK 求解器,使用全连接神经网络逼近 Boltzmann 方程的解。作者在 [48,58] 中使用算子学习方法模拟 FPL 方程和 Boltzmann 方程。


1.5 论文结构

在第 2 节中,我们将介绍用于逼近 FPL 方程的 opPINN 框架的概述。opPINN 框架分为两个步骤:步骤 1 和步骤 2,并详细描述了每个步骤的训练数据和损失函数。在第 3 节中,我们提供了神经网络解收敛到 FPL 方程经典解的理论证明。在第 4 节中,我们展示了 FPL 方程在各种条件下的模拟结果。最后,在第 5 节中,我们总结了本文的方法和结果。

2. 方法论:结合算子学习的物理信息神经网络 (opPINN)

提出的 opPINN 框架分为两个步骤:步骤 1步骤 2,如图 1 所示。在 步骤 1 中,算子 被逼近。在 步骤 2 中,使用 PINN 来逼近 FPL 方程 (1.3) 的解 。此处,来自 步骤 1 的预训练算子替代模型 被用于逼近 FPL 方程中的碰撞项 。我们使用 PyTorch 库实现 opPINN 框架。以下小节将分别详细说明每一步骤。


2.1 步骤 1:算子学习用于逼近碰撞算子

近年来,许多神经网络结构被用于逼近算子。其中,卷积编码器-解码器结构是一种广泛使用的神经网络结构,常用于图像到图像的回归任务 [3,24,33,60,61]。在本研究中,我们使用两个卷积编码器-解码器网络来学习算子 。每个卷积网络将分布 作为输入,分别输出 。其他结构(例如 DeepONet [46] 或 Neural Operator [44])也可以在未来用于算子学习。

对于二维 FPL 方程,解 被视为一个时间固定的二维图像,因此在模型中使用二维卷积层 (Conv2d)。对于三维 FPL 方程,则使用三维卷积层 (Conv3d)。在实验中,我们使用大小为 的图像型数据 ,并比较谱方法与每个速度空间具有 模式的情形(总计 模式)。编码器由 4 个卷积层和 1 个线性层组成,解码器由 4 或 5 个卷积层和 3 个上采样层组成。解码器中卷积层的数量取决于每个网络输出的维度,。我们用 表示每个网络的参数,卷积编码器-解码器的输出分别为 。我们使用 Adam 优化器,学习率初始值为 ,并采用学习率调度。


2.1.1 步骤 1 的训练数据

为了学习算子 ,需要分布 的样本作为训练数据,记为 。为了训练从初始条件到平衡态的分布范围的算子,训练数据由高斯函数及其变体构成。更具体地,训练数据 包括以下三种分布函数:

  1. 高斯函数

    其中

  2. 两个高斯函数的和

    其中 均为随机高斯函数。

  3. 带小扰动的高斯函数

    其中 为随机系数在 内的二次多项式。

为了方便起见,训练数据 是通过将这 300 个随机分布样本归一化为体积为 0.2 构造的。如果训练输入函数 的体积不归一化,则基于梯度下降算法的深度学习可能会变得不稳定,并需要较长时间训练。在深度学习领域,当使用卷积神经网络进行训练时,对输入图像进行归一化是一种常见做法。


2.1.2 步骤 1 的损失函数

监督损失函数被用来训练算子替代模型 。更具体地,损失函数定义如下:

其中 是基于 Frobenius 范数的相对误差, 是前一节定义的训练数据集。对于每个分布 的目标值 ,使用 Gauss-Legendre 求积法(用于近似函数积分的数值方法)进行计算。

2.2 步骤 2:使用 PINN 逼近 FPL 方程的解

步骤 2 中,使用预训练的算子替代模型 ,通过 PINN 逼近 FPL 方程的解。一个全连接深度神经网络 (DNN) 被用于参数化 FPL 方程的解。我们将深度 层神经网络的参数定义如下:

  • :网络中第 层与第 层之间的权重矩阵;
  • :网络中第 层与第 层之间的偏置向量;
  • :网络中第 层的宽度;
  • :网络中第 层的激活函数。

上述参数组成向量 ,集合 。DNN 的结构与 PINN 的深度学习算法详细说明可参考文献 [51,38]。

在本研究中,DNN 将网格点 作为输入,输出 ,其用于逼近 FPL 方程的解。DNN 包含 4 个隐藏层,其神经元结构为 ,即 。隐藏层使用双曲正切激活函数:

而最后一层使用 Softplus 激活函数:

以确保输出 的非负性,这是数值方法中的一个主要难点。本步骤中,使用 Adam 优化器,学习率初始值为 ,并采用学习率调度策略。由于输出 在时间 和速度 上是连续的,我们获得了无网格、时间连续的解。


2.2.1 步骤 2 的训练数据

为了训练神经网络解 ,需要每个变量域的网格点数据。实验中,时间区间 根据初始条件选择为 ,足以使 FPL 方程达到稳态。选取足够大的 以确定截断速度域:

根据数值证据(见第 4.2 节),假设 外几乎为 0 且体积为 0.2。时间网格点随机选择,而速度网格点均匀选择,以便使用包含均匀网格的网络

每个周期中,用于控制方程的网格点集合为:

其中:

随机选择 均匀选择 。我们设置 (若 )或 (若 )。对于初始条件,我们使用网格点


2.2.2 步骤 2 的损失函数

结合预训练的算子替代模型 ,在 opPINN 框架中为 步骤 2 定义以下损失函数。

  1. 控制方程损失函数(根据 FPL 方程 (1.3)):
  1. 初始条件损失函数
  1. 总损失函数

损失函数中的积分通过网格点上的 Riemann 求和近似。

3. 神经网络解对 FPL 方程的收敛性

在本节中,我们提供了理论证明,证明逼近的神经网络解会收敛于 FPL 方程 (1.3) 的解。我们假设 FPL 方程 (1.3) 的解的存在性和唯一性是先验给出的。


3.1 定义与相关定理

首先,我们引入文献 [42] 中的定义和定理。

定义 3.1(Li,[42])
对于 的一个紧集 ,若存在一个开集 (依赖于 ),使得 ,则称 ,其中

定理 3.2(Li,第 2.1 定理,[42])
的一个紧子集,,且 ,其中 。令 中的一个非多项式函数,其中 。则对于任意 ,存在一个神经网络:

其中 ,使得:

对于某些

注释 3.3
在上述定理中, 对应于神经网络设置中的 ,而 对应于 时的 时的

注释 3.4
尽管定理 3.2 中的神经网络只有一个隐藏层,该结果可以推广到具有多个隐藏层的情况(见 [29])。因此,从现在起,我们可以假设神经网络结构只有一个隐藏层,即


3.2 假设

我们假设算子 可以通过卷积编码器-解码器 被很好地逼近。卷积编码器-解码器已成功应用于许多领域,并能有效学习函数到函数的映射 [3,24,33,60,61]。基于此,我们对算子替代模型 的假设如下:

假设
对于任意 ,存在 ,使得:

注释 3.5
我们通过监督损失函数 (2.1) 和 (2.2) 更新网络参数 ,并期望找到满足上述条件的


3.3 主要定理

定理 3.6(损失函数的可减性)
假设 (1.3) 的解 (若 )或 (若 )。假设非多项式激活函数 (若 )或 (若 )。则对于任意 ,存在参数 ,使得神经网络解 满足:

证明
证明与文献 [30] 的第 3.4 定理类似,基于定理 3.2。


定理 3.7(神经网络解的收敛性)
假设 是 FPL 方程 (1.3) 的解,且 (若 )或 (若 ),并且指数 满足 。若 和神经网络解 满足以下条件:

  1. 高斯界传播性质:

    且初值满足

  2. 域边界条件:

  3. 导数边界条件:

则有:

其中 是仅依赖于 的正常数。


注释 3.8(定理 3.6 与定理 3.7 的联系)
定理 3.6 证明了存在神经网络参数,使得总损失函数可以任意减小。若希望神经网络解 接近先验解 ,可以使用深度学习算法(如 PINN)找到使得总损失函数较小的神经网络参数,从而根据定理 3.7 减小误差

4. 模拟结果

我们将 opPINN 框架的模拟结果分为两部分:首先展示步骤 1 中关于算子替代模型 的结果;然后展示步骤 2 中利用 opPINN 框架求解 FPL 方程的神经网络解的结果。我们将与文献 [49] 中著名的快速谱方法进行对比,该方法已广泛应用于 FPL 方程的模拟中。谱方法使用 Python 的 NumPy 库实现。


4.1 步骤 1:算子替代模型的结果

在本节中,我们集中讨论步骤 1 中算子学习的结果,用于逼近公式 (1.5) 和 (1.6) 中的两项 。如第 2.1 节所述,两个卷积编码器-解码器模型分别用于逼近算子

结果展示

  • 算子 的结果
    图 2 展示了目标值 与经过训练的算子替代模型 的输出。测试的分布函数 不包含在训练数据中。图中以二维情形 () 为例,显示了算子替代模型输出与目标值在 的四个矩阵分量上的良好匹配。对于 100 个测试样本的相对 平均误差小于 0.006。

  • 算子 的结果
    图 3 展示了算子替代模型 () 的结果。同样,目标值 被很好地逼近,100 个测试样本的相对 平均误差为 0.008。

结合传统数值方法的结果

  • 碰撞项 的直接逼近
    图 4 展示了使用算子替代模型 ,结合有限差分法 (FDM) 计算分布函数导数,直接逼近碰撞项 的结果。为验证碰撞项 的逼近精度,我们选择 FPL 方程的一个精确解——BKW 解作为测试样本:

    其中, 的体积为 0.2。当 时,图 4 展示了精确值 与逼近值 的对比,表明碰撞项被良好逼近。

计算效率的对比

  • 图 5 对比了不同速度模式下,使用算子替代模型与快速谱方法逼近碰撞算子的计算时间。谱方法的复杂度为 ,其计算时间随模式数显著增加,而所提出的方法计算成本增长较慢。当速度模式较大时,opPINN 框架展现了显著的时间优势。

  • 使用逼近的碰撞算子 ,结合欧拉方法求解 FPL 方程,并将结果与谱方法进行比较。在初始条件为 BKW 解时,图 6 展示了 的模拟结果。对于 ,所提方法精度低于谱方法,主要误差来自 FDM 并在时间步中累积。而在 的情况下,所提方法与谱方法表现出相似的精度。


4.2 步骤 2:使用 opPINN 框架求解 FPL 方程的神经网络解

本节展示了使用 opPINN 框架求解 FPL 方程的神经网络解。我们在步骤 1 中训练了算子替代模型 (),并在本节中使用它们进行测试。

实验内容

  • 通过改变初始条件、碰撞类型和速度维度测试 opPINN 框架的性能。
  • 提供神经网络解 的逐点值,以及相关物理量(质量 、动量 、动能 和熵 ,见公式 (1.8)-(1.9))。物理量的积分通过 Gauss-Legendre 求积法计算。

结果展示

  1. 与理论结果的比较

  • 将结果与第 1.3 节中描述的理论结果进行对比,验证物理量(质量、动量、能量和熵)的守恒性。
  • 观察神经网络解的长时间行为,验证其是否收敛到 Maxwellian 分布 (1.11)。
  • 误差与损失值

    • 根据定理 3.7,计算不等式 (3.8) 左侧的误差值 ,以及右侧总损失函数 的值。
    • 观察误差与损失值的关系,验证神经网络解的收敛性。

    4.2.1 初始条件变化下的结果

    Maxwellian 初始条件

    我们首先设定 Maxwellian 初始条件:

    并取碰撞核参数 。由于初始条件已是稳态,我们期望神经网络解 随时间保持不变。

    • 结果展示
      • 图 7 展示了随时间变化的神经网络解逐点值。第一行为分布函数 的三维图,第二行为 的二维切片图。
      • 神经网络解从 保持初始状态不变,验证了稳态的准确性。
      • 解的误差为 ,损失值为

    BKW 初始条件

    我们使用 BKW 解在 时的初值(公式 (4.1)):

    其中 。BKW 解是测试数值方法的经典初值。

    • 结果展示
      • 图 8 展示了 的神经网络解逐点值,与精确解 (红色虚线)对比。神经网络解(紫色线)很好地匹配精确解。
      • 图 9 显示了神经网络解的质量、动量、动能和熵。红色虚线表示初始物理量。
      • 神经网络解满足质量、动量和动能守恒;熵为非增加函数,与理论性质 (1.10) 一致。
      • 解的误差为 ,损失值为

    4.2.2 哥伦布势情形(

    我们将碰撞核的幂指数 设置为 (哥伦布势模型)。初始条件为两高斯分布的和:

    其中 ,常数 保证体积为 0.2,

    • 结果展示
      • 图 10 展示了 的神经网络解逐点值,与谱方法解(绿色星点)对比,表现出良好的匹配。
      • 解的误差为 ,损失值为
      • 图 11 显示了质量、动量、动能和熵随时间的变化。质量和动量保持守恒,熵为非增加函数。

    4.2.3 三维 FPL 方程()的结果

    我们进一步将 opPINN 框架应用于三维 FPL 方程,测试神经网络解向平衡态(3 维 Maxwellian 分布)的收敛性。初始条件为:

    其中 ,常数 保证体积为 0.2,

    • 结果展示
      • 图 12 展示了神经网络解 的逐点值与解析平衡态对比。为便于可视化,绘制了 的二维切片图。
      • 神经网络解在 时收敛到平衡态。

    5. 结论

    本文提出了 opPINN 框架,通过结合算子学习与 PINN,高效逼近 FPL 方程的复杂 Landau 碰撞算子,并生成无网格的神经网络解。

    • 实验结果表明,神经网络解满足 FPL 方程的解析性质,并在理论支持下收敛于经典解。
    • 尽管本文使用卷积编码器-解码器作为算子替代模型,其他算子学习结构(如 DeepONet 和 Neural Operator)也可集成到框架中以提升性能。
    • 框架具有高度灵活性,可扩展至非齐次 FPL 方程(加入位置变量 )以及边界条件类型多样的情形(如流入型和反射型边界条件)。
    • 对于碰撞算子更复杂的 Boltzmann 方程,该框架也有潜力进行推广,作为未来工作的方向。


    END


    PINNs代码汇总

    长按扫码

    点赞

    关注

    在看

    💙整理不易,希望各位道友能够多多支持宝库,支持邪云宝库!你的一个点赞、一次转发、 随手分享,都是宝库前进的最大动力~

    💛2024,不忘初心,宝库会给大家带来更好的内容,让我们2024,一起暴富!

    邪云宝库
    用于分享物理科学启发AI的新范式:人工智能的物理科学(PhysicsScience4AI, PS4AI)资料。用于各种debug日志,偏微分方程,物理信息神经网络,算法原理及实现,数据挖掘,机器学习,智能优化算法,多元统计及生活分享。
     最新文章