上图 10.1016/j.compfluid.2024.106370
AI翻译版:在本文中,我们介绍了深度有限体积法 (DFVM),这是一种创新的深度学习框架,专门用于解决高阶(阶数≥2)偏微分方程 (PDE)。我们的方法以从原始 PDE 中得出的局部守恒定律设计的新损失函数为中心,将 DFVM 与传统的深度学习方法区分开来。通过以 PDE 的弱形式而不是强形式来制定 DFVM,我们提高了准确性,与基于强形式的方法(如物理信息神经网络 (PINN))相比,这对于解不太平滑的 PDE 尤其有益。DFVM 的一项关键技术在于它将神经网络的所有二阶或更高阶导数转换为一阶导数,可以使用自动微分 (AD) 直接计算。这种调整显著降低了计算开销,特别有利于解决高维 PDE。数值实验表明....
岳子嘴嚼版:继续嚼一个算法。JCP刚刚出炉的。这玩意挺有意思,叫“深度有限体积法”。
有限体积法大家在幼儿园中班就开始接触了,现在带大家回复一下咱们幼儿园小姐姐教过的内容,可能大家有点忘了。有限体积法离散的时候,主要是将连续的面积分变为离散的面加和的形式,这样连续的PDE就变成了离散的,即可进行求解。
PINN这一块大家可能没有涉及,这个不是幼儿园中班的内容,这个得上到研究生才有。因为比较新。2019年才提出来的。
PINN这一块头子,通过自动微分计算偏微分方程的导数。感兴趣的阅读原文看PINN怎么求解。
最近JCP爆了一篇文章,叫深度有限体积法!
算法来自于JCP 2024年11月517期:
Deep finite volume method for partial differential equations
这个深度有限体积法啥意思呢?最核心的就是把PINN定义损失的方法变了一下,下面这个是原文的公式:
这个公式我看着都有点懵。岳子按照OpenFOAM风格,嚼了一下,这个公式应该是这个意思(考虑源项):
PINN原本需要计算2阶导数PDE的,比如,需要调用2次自动微分,但是如果用深度有限体积这个loss的定义,做了降阶,只需要调用1次自动微分。即为效率提升。也即文中所谓的high order变为low order。
幼儿园学的有限体积法需要保证网格不重叠且相连。深度有限体积没有这个限制。
文章里面有更复杂的推导。岳子也没有花费太多时间来看。感兴趣的大家可以研究研究。
大家觉得这个深度有限体积法,能不能把经典有限体积法给割腰子了?