摘要
在传统物理信息神经网络(physics-informed neural network,PINN)的基础上,通过融合维度扩展和多物理损失函数,提出了两种改进的偏微分方程求解方法,分别是:基于改进多层感知机的维度扩展物理信息神经网络(expanding physics-informed neural network with modified multi-layer perceptron,EmPINN)和多物理损失函数物理信息神经网络(diverse loss function physics-informed neural network,DL-PINN)。EmPINN创新性地提出了一种带有残差连接和维度扩展机制的神经网络结构,DL-PINN在EmPINN的基础上,将维度扩展机制、梯度增强物理信息与变分物理信息相结合,更有效地融入多种物理信息,进一步提高神经网络的拟合能力。实验结果表明,所提出的方法优于传统的物理信息神经网络方法,在不同偏微分方程案例上实现了最高两个数量级的求解精度提升。
Abstract
Building upon the traditional PINN(physics-informed neural network), two improved methods for solving partial differential equations, EmPINN(expanding physics-informed neural network with modified multi-layer perceptron) and DL-PINN(diverse loss function physics-informed neural network), were presented by incorporating dimension expansion and diverse physics loss functions. EmPINN innovatively introduced a neural network structure with residual connections and a dimension-expanding mechanism. DL-PINN, based on EmPINN, combined the dimension-expanding mechanism with gradient enhancement and variational physical information to incorporate multiple physical information more effectively and improved the fitting capability of the neural network. Experimental results demonstrate that the proposed methods outperform traditional PINN method, improve solution accuracy by up to two orders of magnitude on different partial differential equation cases.
偏微分方程(partial differential equations,PDEs)广泛应用于材料科学、航空航天和流体力学等科学和工程领域。当前PDEs主要采用数值计算方法进行求解,例如有限差分、有限元和有限体积方法等。这些数值计算方法需要将PDEs的求解域进行离散化,然后在网格节点上求解PDEs。然而,随着方程维度的增加,网格节点的数量呈指数级增长,所导致的维度灾难使得采用传统数值计算方法求解复杂PDEs时会面临计算开销大、计算流程复杂等问题。因此,研究高效的PDEs代理求解方法成了研究热点。
人工智能(artificial intelligence,AI)作为一种新的技术驱动力,正在推动各个行业的变革。随着可用数据和计算资源的快速增长,深度学习等AI技术已广泛用于科学计算的各个领域,如网格生成[1]、网格质量评估[2]和涡旋检测[3]。目前,基于深度学习的PDEs求解方法已成为PDEs代理求解方法的热门领域。与数值方法将求解域离散化为网格单元,然后迭代求解PDEs的方式不同,基于深度学习的方法提供了一种无网格的偏微分方程求解方法。通过将物理信息嵌入神经网络的损失函数中,经过训练的神经网络能够有效地求解PDEs。将神经网络用于求解PDEs的想法最早源于1998年Lagaris等[4]的工作。而后Raissi等[5]在研究高斯过程时应用了物理领域的先验知识,他们发现并指出,在与数学物理相关的许多问题中,有大量的先验知识,尚未在深度学习中得到应用。这些先验知识如底层物理定律或经验规律,能够作为一个正则化机制,将问题的解约束在一个更小的搜索空间。这种加入物理领域先验知识的深度学习方法被称为物理信息学习。随着自动微分(automatic differentiation,AD)技术[6]的出现,物理信息学习可以被应用于神经网络,从而产生了物理信息神经网络[7](physics-informed neural network,PINN)。该方法将PDEs的残差项和边界条件项添加到神经网络的损失函数中,使用自动微分技术计算PDEs中的微分项,优化损失函数以获得最佳参数,完成训练即可求解PDEs。PINN已成功应用于解决不同领域的多种问题,例如光学[8]、流体力学[9]和生物医学[10]。这些研究为PINN在解决复杂科学问题上的应用提供了有力的支持,并丰富了其在各研究领域的应用。
对PINN进行改进,提高它求解PDE的精确度和训练速度,是一个重要的研究方向。因此出现了一系列相关研究,例如可训练激活函数物理信息神经网络[11]、变分物理信息神经网络[12](hp-variational physics informed neural network,hp-VPINN)、梯度增强物理信息神经网络[13](gradient-enhanced physics informed neural network,gPINN)、梯度优化物理信息神经网络[14]、域分解物理信息神经网络[15]以及物理信息神经网络与迁移学习[16]的结合。这些方法主要聚焦于更好地利用物理信息,但对于更好地将神经网络的拟合能力与物理信息相结合的研究不多。
本文融合维度扩展和多物理损失函数,提出了两种偏微分方程智能求解方法——基于改进多层感知机(multi-layer perceptron,MLP)的维度扩展物理信息神经网络(expanding physics-informed neural network with modified multi-layer perceptron,EmPINN)和多物理损失函数物理信息神经网络(diverse loss function physics-informed neural network,DL-PINN),以提高PINN方法的精度,并且更好地将神经网络的拟合能力与物理信息相结合。EmPINN的核心在于维度扩展机制。该机制引入了一个在特征变换层中执行的维度扩展操作,它将低维求解域映射到高维空间。此外,EmPINN还使用了带有残差连接的MLP。为了更好地利用物理信息,本文将维度扩展机制、梯度增强与变分物理信息相结合,从而形成DL-PINN方法。DL-PINN能够更好地将PDEs蕴含的物理信息融入神经网络求解的过程中,进一步提高神经网络的拟合能力。
1 问题背景
1.1 问题描述
考虑非线性偏微分方程系统的一般形式如下:

(1)

(2)
u(x,t)是PDEs的解,
[u]=uux-γuxx和
[u]是非线性算子。式(2)表示初始条件(initial condition,IC)和边界条件(boundary condition,BC)。确定了PDEs和对应的BC和IC,才能够对问题进行求解。


1.2 物理信息神经网络
定义深度神经网络NN(x,t; θ)对解函数u(x,t)进行近似,输入是时空坐标(x,t),输出是Burgers方程的解uNN(x,t),θ是神经网络中所有可以训练的参数所构成的集合。定义神经网络f(x,t; θ)=ut+uux-γuxx对PDEs进行拟合,将PDEs视作值恒为零的函数,使用自动微分技术可以对f(x,t; θ)进行计算。PINN的原理如图1所示。

图1PINN原理图
Fig.1The schematic diagram of PINN
为了优化神经网络,定义损失函数如下:
(3)
式中,Tb是边界点集,Tf是求解域内使用拉丁超立方采样(Latin hypercube sampling,LHS)方法[17]随机采样的点集,Nb是边界条件点的个数,Nf是采样点的个数,uib是满足边界条件的函数值。使用随机采样点有助于避免固定采样点引入的偏差,同时也使得模型能够更好地适应整个求解域的特征。
物理信息神经网络方法将PDEs编码进损失函数中,通过对神经网络进行训练,使神经网络的输出满足底层物理定律,从而获得PDEs的数值解。与传统神经网络相比,物理信息神经网络方法的优势在于无须使用大量带有标签的数据来进行训练,并且具有很强的泛化能力。
2 研究方法
2.1 基于改进多层感知机的维度扩展物理信息神经网络
基于改进多层感知机的维度扩展物理信息神经网络提出了一种带有残差连接和维度扩展机制的神经网络结构:在神经网络中引入一个特征变换层[18],执行扩展维度的操作;并且在常规的MLP中引入残差连接[19]来对其进行改进,引入残差连接后的MLP记为mMLP。
首先,以输入特征(x,y)为例,经过特征变换层后,(x,y)会扩展维度,变成(x,y,x2,y2)。维度扩展机制定义了一个从输入到输出的映射:
(4)
经过这个特征变换后,求解域从二维的输入空间映射到了四维空间。Bengio等[20]的研究表明,神经网络在学习高维数据表示方面具有更强的能力,并强调了神经网络在求解高维问题方面的潜力。因此,使用神经网络在新的高维空间中进行训练和优化,更容易对PDEs的解函数进行拟合。
其次,这种方法使用了mMLP,这样做的好处是能够通过残差连接增强隐藏状态。隐藏层数为L的mMLP的网络架构由以下公式定义:
(5)
(6)
(7)
通过在神经网络结构中引入维度扩展和残差连接。EmPINN可以更充分地利用神经网络的拟合能力,提高PINN在求解PDEs时的精确度。EmPINN方法只对神经网络的结构进行了改进,因此它的损失函数定义与PINN是类似的。EmPINN的原理图如图2所示。

图2EmPINN原理图
Fig.2The schematic diagram of EmPINN
2.2 多物理损失函数物理信息神经网络
已有的方法如hp-VPINN[12]和gPINN[13],都是在损失函数方面对PINN进行改进。hp-VPINN将PDEs的变分形式加入损失函数中,gPINN将PDEs的微分形式加入损失函数中,并且hp-VPINN包含着将方程的定义域分解的思想,对问题分而治之,能够对每个区域进行单独的超参数初始化和训练。
在网络结构和损失函数上的不同改进,是可以进行结合的,因此,在上文提出的EmPINN的基础上,结合梯度增强和变分物理信息的思想,提出了多物理损失函数物理信息神经网络DL-PINN。DL-PINN可以更好地将神经网络的拟合能力与PDEs蕴含的物理信息相结合,提高物理信息神经网络求解偏微分方程的准确度。DL-PINN的原理图如图3所示。

图3DL-PINN的原理图
Fig.3The schematic diagram of DL-PINN
以式(1)给出的方程为例,DL-PINN方法的损失函数定义如下:
(8)
(9)
(10)
(11)
(12)
其中:Tg是求解域内随机采样的点集;Tv是求积点集;和是在x维度和t维度上分解的求解域的个数;φ(x)和φ(t)分别是在x维度和t维度上的测试函数,选取Legendre多项式的组合作为测试函数;K1和K2分别是x维度和t维度中的测试函数数量。后续实验中,和设置为2,K1和K2设置为5。需要注意的是,变分残差的构建不是唯一的,因为可以利用Jacobi多项式的不同性质来进行积分并推导出各种公式。使用Legendre多项式的递归公式来计算变分残差,求积点的数量为50。为了更好地训练模型,每个损失项都分配了不同的权重,这样的方式能够更好地对模型进行训练[19]。wgi是每个微分损失项的权重,λb是边界损失项的权重,λf是PDEs残差损失项的权重,λv是PDEs残差积分损失项的权重。
3 结果与讨论
本节研究并比较EmPINN方法和DL-PINN方法与一些常用的基于深度神经网络的PDEs求解方法的性能,包括PINN、gPINN和hp-VPINN等,所有实验都在相同的实验环境下进行,每个示例使用的超参数在表1中进行了说明。在所有的示例中,使用tanh作为激活函数,学习率为0.001。为了最小化损失函数,使用自适应矩估计(adaptive moment estimation,Adam)优化器与限制内存的拟牛顿法-边界约束(limited-memory broyden-Fletcher-Goldfarb-Shanno box constrains,L-BFGS-B)优化器[21]相结合的优化策略:先使用Adam优化器应用于随机梯度下降训练,再使用L-BFGS-B优化器对结果进行微调。在训练过程中将TensorFlow和Numpy的随机种子设置为1 234,以确保实验结果的可重复性。
评判求解的准确度,一般会以式(13)给出的相对L2误差作为标准。
(13)
式中:uexact是方程数值解,一般由数值方法求解得到,可作为准确解;upred是新方法(神经网络)的预测解。
表1实验中使用的超参数
Tab.1Hyperparameters used in this study

文中的所有代码都基于Python 3.7.4和TensorFlow 1.14.0。所有示例的数值实验都在装有第十代Intel(R)Core(TM)i7-10510U @ 1.80 GHz处理器和16.0 GB内存的笔记本电脑上运行。
3.1 Poisson方程实验结果
Poisson方程是一个常见于静力学、机械工程和理论物理的偏微分方程,也是微电子器件三大基本方程之一,应用非常广泛。考虑求解二维Poisson方程,方程形式如下:
(14)
为了便于验证,求解齐次方程,即f(x,y)=0在整个定义域上恒成立。给出方程的解析解如下:
(15)
使用EmPINN和DL-PINN等方法求解Poisson方程时,损失项的权重λb、λf和λv都被设置为10,wx和wy被设置为0.001。图4(a)、图4(b)和图4(c)分别展示了使用50个训练点求解Poisson方程时,PINN、EmPINN和DL-PINN方法的损失函数收敛情况。每个方法都在Adam优化器下进行了500次优化,并由L-BFGS-B优化器进行了微调。比较图4(a)和图4(b),注意到无论使用哪种优化器进行训练,EmPINN方法的表现都更好。图4(c)展示了DL-PINN方法的损失函数,在Adam优化器的优化阶段,损失项的变化更平稳,而使用L-BFGS-B优化器时,损失项的变化非常大,收敛速度较快。
图5(a)和图5(b)分别展示了Poisson方程的准确解和由DL-PINN给出的预测解,这两幅图像非常接近。图5(c)展示了DL-PINN方法求解Poisson方程时,逐点绝对误差的分布在O(10-3)~O(10-4)范围。可以明显看出,DL-PINN方法非常有效地求解了Poisson方程。

图4PINN、EmPINN和DL-PINN求解Poisson方程的损失函数图像(y轴是对数刻度)
Fig.4Loss function of PINN, EmPINN and DL-PINN (on the log scale) for solving Poisson′s equation
图5Poisson方程的准确解与DL-PINN方法求解 Poisson方程的预测解的比较
Fig.5Comparison between the exact solution of Poisson equation and the predicted solution given by DL-PINN
表2展示了使用EmPINN和DL-PINN方法与使用其他方法求解Poisson方程的比较结果。为了确保在不同方法之间进行公平比较,所有实验均使用了相同的超参数,如表1所示。实验结果显示,本文提出的方法EmPINN和DL-PINN求解Poisson方程的相对L2误差比PINN、gPINN和hp-VPINN低两个数量级,而DL-PINN方法的表现最佳,相对L2误差为3.20×10-5。
表2不同方法求解Poisson方程的相对L2误差比较
Tab.2Comparison of the relative L2-error of different methods on Poisson equation

3.2 Burgers方程实验结果
Burgers方程是一个模拟冲击波的传播和反射的非线性偏微分方程,在流体力学、气体动力学等领域都有应用,具有很好的研究价值。本文求解的Burgers方程形式如下:
(16)
(17)
(18)
使用EmPINN和DL-PINN等方法求解Burgers方程时,损失项的超参数λb被设置为20,λf和λv都被设置为1,wx和wt都被设置为0.001。图6(a)、图6(b)和图6(c)分别展示了使用5 000个训练点求解Burgers方程时,PINN、EmPINN和DL-PINN的损失函数收敛情况。每个方法都在Adam优化器下进行了10 000次优化,并由L-BFGS-B优化器进行了微调。DL-PINN在Adam优化器的优化阶段,损失函数的曲线剧烈振荡,但损失函数值在整体上减小较少,这表明Adam优化器的训练效果有限。DL-PINN在L-BFGS-B优化器优化阶段,损失函数的下降更为明显,在17 000次迭代左右,每个损失项趋于收敛。
图7(a)和图7(b)分别展示了Burgers方程的准确解和由DL-PINN给出的预测解,图7(c)显示了DL-PINN方法求解Burgers方程的逐点绝对误差在O(10-3)范围内。DL-PINN方法非常有效地求解了Burgers方程。

图6PINN、EmPINN和DL-PINN求解Burgers方程的损失函数图像(y轴是对数刻度)
Fig.6Loss function of PINN, EmPINN and DL-PINN (on the log scale) for solving Burgers′ equation

图7Burgers方程的准确解与DL-PINN方法求解 Burgers方程预测解的比较
Fig.7Comparison between the exact solution of Burgers′ equation and the predicted solution given by DL-PINN
表3展示了使用EmPINN和DL-PINN方法与使用其他方法求解Burgers方程的比较结果。结果显示,在求解Burgers方程时,EmPINN方法的相对L2误差为3.78×10-3,DL-PINN方法的表现最好,相对L2误差为3.44×10-4,这个值比PINN、gPINN和hp-VPINN等方法低两个数量级,比EmPINN方法低一个数量级。
表3不同方法求解Burgers方程的相对L2误差比较
Tab.3Comparison of the relative L2-error of different methods on Burgers′ equation

4 结论
物理信息神经网络将深度学习与物理领域的专业知识相结合,为求解复杂PDEs提供了新的方法。研究和优化此类神经网络以更准确地求解PDEs很有意义。本文针对PINN方法求解PDEs精度不高的问题,从不同方面改进PINN以提高其求解PDEs的准确度。这些改进包括引入维度扩展机制、采用带有残差连接的MLP结构、使用梯度增强技术以及引入变分物理信息等方法。根据上述研究,本文融合维度扩展和多物理损失函数,提出了两种偏微分方程智能求解方法:EmPINN和DL-PINN。这两种方法可以充分将物理信息和神经网络强大的拟合能力相结合。Poisson方程和Burgers方程得到的实验结果表明,这两种方法能够提高PINN求解PDEs的准确度,并且优于目前的常规方法1~2个数量级。
与PINN方法及其部分变体gPINN、hp-VPINN等相比,EmPINN引入了拟合能力更强的网络结构,从而提高了求解PDEs的精度,并且不需要引入额外的超参数,但是由于使用了更复杂的网络结构,EmPINN需要更长的时间来进行训练。DL-PINN在EmPINN的基础上,结合了梯度增强技术和变分物理信息,改进了损失函数。这样做能够更好地将神经网络的拟合能力与物理信息相结合,提高求解PDEs的精度,然而,这样会引入额外的超参数,即PDEs微分损失项和PDEs残差积分损失项的权重系数,从而引入了调整权重的问题。因此,未来的工作将研究DL-PINN方法的可解释性,实现自动地确定最佳权重系数,进一步提高性能。本文提出的EmPINN和DL-PINN方法,仅有实验结果验证其准确性和适用性,缺少可解释性研究,并且很难为特定的PDEs系统设计合适的神经网络。随着深度学习技术的不断进步,基于 PINN 的方法在高效、准确地求解PDEs方面具有巨大潜力,有望实现PDEs的精准高效的代理求解。另外,基于PINN的EmPINN和DL-PINN方法,其适用性不仅局限于求解一般PDEs,还可以在计算流体力学领域提供新的建模和预测方法。例如,通过求解Navier-Stokes方程,模拟具有较大尺度的涡旋结构,这也是未来工作的重点研究方向。
致谢
本工作是在国防科技大学计算机学院张建民研究员和李汉卿博士的帮助下完成的,特此致谢!