摘 要: 偏微分方程可以用深度學習方法求解,其求解思路是構建損失函數(shù)、采集樣本點,然后在采集到的時空樣本點上利用隨機梯度下降法訓練神經(jīng)網(wǎng)絡,直接去逼近方程,從而把方程求解問題轉化為極小化損失函數(shù)的問題. 特別地,對時間分數(shù)階擴散方程而言,損失函數(shù)刻畫了神經(jīng)網(wǎng)絡與方程的分數(shù)階算子、初值條件、邊界條件等的逼近程度. 常見的損失函數(shù)有均方誤差損失函數(shù)及交叉熵誤差函數(shù). 理論上,使損失函數(shù)減小到零的神經(jīng)網(wǎng)絡就是方程的解.本文證明,用深度學習方法求解時間分數(shù)階擴散方程時均方誤差損失函數(shù)可以減小到零,且相應的神經(jīng)網(wǎng)絡在解區(qū)域上一致收斂到方程的真解,因而此時的神經(jīng)網(wǎng)絡就是方程的解. 數(shù)值算例驗證了理論分析.
關鍵詞: 神經(jīng)網(wǎng)絡; 時間分數(shù)階擴散方程; 數(shù)值分析
中圖分類號: O241. 82 文獻標志碼: A DOI: 10. 19907/j. 0490-6756. 2024. 041003
1 引言
反常擴散過程可以用時間分數(shù)階擴散方程來刻畫. 相比整數(shù)階方程,分數(shù)階方程可以描述具有時間記憶及遺傳性過程的演化,在半導體、信號處理與電化學、核磁共振、粘彈性力學、湍流等諸多領域有著廣泛的應用[1-11]. 含時間分數(shù)階導數(shù)的擴散方程稱為時間分數(shù)階擴散方程,一般形式為
C0 Dαtu ( t,x )= Δu ( t,x )+ g ( t,x ),
其中x = ( x1,x2,…,xd ),d 為空間維度. 當α ∈ ( 0,1 ) 時,方程稱為時間分數(shù)階慢擴散方程;當α ∈ ( 1,2 ) 時,方程稱為時間分數(shù)階超擴散方程;當α = 1 時,方程退化為經(jīng)典擴散方程. 近年來,時間分數(shù)階擴散方程的數(shù)值解法廣受關注,主流的數(shù)值方法包括有限差分法,有限元法及譜方法,等[2].但是,由于分數(shù)階導數(shù)的非局部性,方程的數(shù)值計算需要大量運算及存儲.
深度學習方法也可以求解微分方程. 由萬能逼近定理,在非常一般的假設下,只要隱藏層中隱藏單元的數(shù)量足夠多,標準前饋神經(jīng)網(wǎng)絡就可以近似任何連續(xù)或不連續(xù)函數(shù). 與數(shù)值方法不同,深度學習方法不需要剖分網(wǎng)格,而是通過構建損失函數(shù)來刻畫神經(jīng)網(wǎng)絡解與微分方程的微分算子和初邊值條件等的逼近程度,并在時間和空間域中樣本點上利用隨機梯度下降法訓練神經(jīng)網(wǎng)絡,通過極小化損失函數(shù)來直接逼近方程. 該方法適用于解那些計算量較大的方程. 理論上,用神經(jīng)網(wǎng)絡求解微分方程時所構建的損失函數(shù)越接近于零代表該神經(jīng)網(wǎng)絡越接近于方程的真解,使損失函數(shù)等于零的神經(jīng)網(wǎng)絡解就可以被視為方程的真解.
與數(shù)值方法相比,雖然深度學習方法求解微分方程高效便捷,但當前卻缺少完善的理論支撐,可靠性有待論證. 因此,研究深度學習方法的計算理論具有重要的理論和應用價值. 在本文中,我們證明:用深度學習方法求解時間分數(shù)階擴散方程時所構建的均方誤差形式的損失函數(shù)可以減小至零,且相應的神經(jīng)網(wǎng)絡解一致收斂于方程的真解,即神經(jīng)網(wǎng)絡解就是方程的真解.
后文的結構如下. 第2 節(jié)介紹深度學習方法求解分數(shù)階擴散方程的思路. 第3 節(jié)證明,若構建一個滿足一定條件的神經(jīng)網(wǎng)絡函數(shù)集那么在集合中一定存在一個神經(jīng)網(wǎng)絡函數(shù),使得損失函數(shù)減小到零且一致收斂于方程的真解. 第4 節(jié)用算例驗證了深度學習方法求解時間分數(shù)階擴散方程的效能. 第5 節(jié)總結研究所得結果.
2 深度學習方法
考慮如下形式的d 維時間分數(shù)階擴散方程:
其中x = ( x1,x2,…,xd ),d 為空間維度,Ω 為對應的d 維空間區(qū)域,g,γ,μ 分別為Ω × [ 0,T ],Ω,?Ω ×[ 0,T ] 上給定的連續(xù)函數(shù),滿足μ ( 0,x )|x ∈ ?Ω =r ( x ),Δ 為Laplace 算子, C0 Dαtu ( t,x ) 為左Caputo分數(shù)階導數(shù),定義如下:
定義2. 1(左Caputo 分數(shù)階導數(shù)) 如果α ∈ R是正數(shù)且n - 1 ≤ α ≤ n,n ∈ N+,f ( t ) 是定義在[ 0,T ] 上的連續(xù)函數(shù),定義α 階左Caputo 分數(shù)階導數(shù)為
其中t ∈ [ 0,T ],n =[ α ]+ 1,Γ( ? )是Gamma 函數(shù).
利用深度學習方法求解方程(1)的具體思路如下. 構建損失函數(shù),將尋找偏微分方程數(shù)值解的問題轉化為極小化損失函數(shù)的優(yōu)化問題,其中的損失函數(shù)用于衡量神經(jīng)網(wǎng)絡解對方程的分數(shù)階微分算子、初值條件、邊界條件等的逼近程度. 然后,通過在時間和空間區(qū)域上采集樣本點,將采集到的樣本點代入損失函數(shù),利用隨機梯度下降法訓練神經(jīng)網(wǎng)絡,使損失函數(shù)下降為零,直接逼近偏微分方程. 理論上,使損失函數(shù)減小到零的那組神經(jīng)網(wǎng)絡就是我們要尋找的神經(jīng)網(wǎng)絡解.
損失函數(shù)一般可用均方誤差的形式來定義,即
其中f (t,x;θ) 為神經(jīng)網(wǎng)絡函數(shù),θ 為神經(jīng)網(wǎng)絡的參數(shù),‖f ( y)‖2Y,ν = ∫Y|f ( y )|2 ν ( y ) dy,ν ( y ) 是Y 上y的正概率密度,λ1,λ2 為懲罰項. L ( f ) 是需要極小化的損失函數(shù),它衡量了神經(jīng)網(wǎng)絡解和方程的真解之間的接近程度,L ( f ) 越接近于0 代表神經(jīng)網(wǎng)絡解f (t,x;θ) 越接近方程的真實解. 如果L ( f ) = 0,那么神經(jīng)網(wǎng)絡函數(shù)f (t,x;θ) 就可以被視為方程的解. 這樣,求解方程的問題就轉化為如何極小化損失函數(shù)L ( f ) 的優(yōu)化問題,而極小化損失函數(shù)的這組神經(jīng)網(wǎng)絡就是方程的一個神經(jīng)網(wǎng)絡解.
圖4 展示了t = 0. 2, 0. 4,0. 6和0. 8 時方程(26)的神經(jīng)網(wǎng)絡解,對應的真解如圖2 所示. 圖5展示了解之間的偏差,這里的偏差為L2-誤差.
表1 為2 種不同分數(shù)階取值下用深度學習求解方程(26)得到的方程的真解和神經(jīng)網(wǎng)絡間的誤差,誤差在整個時間區(qū)域上的動態(tài)變化如圖6 所示,其中的紅色線為平均相對誤差erel,藍色線為平均L2-誤差e2.
綜上,數(shù)值計算的結果表明,神經(jīng)網(wǎng)絡解與真解間的誤差非常小,與本文的理論分析一致,說明深度學習方法確實可以有效求解時間分數(shù)階擴散方程.
5 結論
本文研究了用深度學習方法求解分數(shù)階偏微分方程的數(shù)學理論,證明當隱藏層中隱藏單元的數(shù)量足夠多時,配備了有界非常數(shù)激活函數(shù)的神經(jīng)網(wǎng)絡即便僅有1 個隱藏層,其均方誤差損失函數(shù)也可以減小到0,并且使損失函數(shù)減小到0 的神經(jīng)網(wǎng)絡解在解區(qū)域上一致收斂到方程的真解. 數(shù)值算例驗證了理論分析.
參考文獻:
[1] Oldham K B, Spanier J. The fractional calculus[ M].London: Academic Press, 1974.
[2] Podlubny I. Fractional differential equations [M].San Diego: Academic Press, 1999.
[3] Hornik K. Approximation capabilities of multilayerfeedforward networks [J]. Neural Networks, 1991,4: 251.
[4] Li X, Xu C. Existence and uniqueness of the weaksolution of the space-time fractional diffusion equationand a spectral method approximation [J]. CommunComput Phys, 2010, 8: 1016.
[5] Luchko Y. Initial-boundary-value problems for theone-dimensional time-fractional diffusion equation[ J].Fract Cal Appl Anal, 2012, 15: 141.
[6] Stynes M, Riordan E, Gracia, et al. Error analysisof a finite difference method on graded meshes for atime-fractional diffusion equation [J]. SIAM J NumerAnal, 2017, 55: 1057.
[7] Gorenflo R, Luchko Y, Yamamoto M. Timefractionaldiffusion equation in the fractional Sobolevspaces[ J]. Fract Cal Appl Anal, 2015, 18: 799.
[8] Sakamoto K, Yamamoto M. Initial value/boundaryvalue problems for fractional diffusion-wave equationsand applications to some inverse problems [J].J Math Anal Appl, 2011, 382: 426.
[9] Boccardo L, Dallaglio A. Nonlinear parabolic equationswith measure data [J]. J Funct Anal, 1997,147: 237.
[10] Sirignano J, Spiliopoulos K. DGM: A deep learningalgorithm for solving partial differential equations[ J].J Comput Phys, 2018, 375: 1339.
[11] Chen W, Sun H G. Numerical algorithms for fractionaldifferential equations: Current situation andproblems [J]. Computer-Aided Engineering, 2010,19: 1.[陳文, 孫洪廣. 分數(shù)階微分方程的數(shù)值算法: 現(xiàn)狀和問題[J]. 計算機輔助工程, 2010,19: 1.]
(責任編輯: 周興旺)
基金項目: 國家自然科學基金(11971337)