国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于對(duì)偶神經(jīng)網(wǎng)絡(luò)的動(dòng)力方程精細(xì)積分法

2022-08-26 08:50:22李海濱
振動(dòng)與沖擊 2022年16期
關(guān)鍵詞:原函數(shù)積分法對(duì)偶

楊 永,李海濱,2

(1.內(nèi)蒙古工業(yè)大學(xué) 理學(xué)院,呼和浩特 010051;2.內(nèi)蒙古工業(yè)大學(xué) 工程訓(xùn)練教學(xué)部,呼和浩特 010051)

1994年,鐘萬(wàn)勰[1-2]將運(yùn)動(dòng)方程轉(zhuǎn)入Hamilton體系,在時(shí)域上給出了運(yùn)動(dòng)方程以積分形式的解,同時(shí)針對(duì)該解中的矩陣指數(shù)函數(shù)提出了精細(xì)積分算法,該方法避免了計(jì)算機(jī)中的截?cái)嗾`差,將矩陣指數(shù)的計(jì)算精度提高到了計(jì)算機(jī)的精度。但是由于非齊次項(xiàng)的任意性,如何有效處理精細(xì)積分法解中的積分是一個(gè)需要解決的問(wèn)題。Zhong等[3-4]將非齊次項(xiàng)在每個(gè)積分區(qū)段進(jìn)行線性化近似,提出了精細(xì)時(shí)程法,但是精確的遞推格式需要對(duì)系統(tǒng)矩陣求逆,并且當(dāng)步長(zhǎng)較大時(shí),線性化的假設(shè)會(huì)導(dǎo)致計(jì)算誤差增大。為解決這一問(wèn)題,顧元憲等[5]提出了增維精細(xì)積分算法,將非齊次項(xiàng)看做狀態(tài)變量納入求解過(guò)程中,從而將非齊次項(xiàng)方程轉(zhuǎn)化為齊次方程,保證了計(jì)算精度。但是此類算法對(duì)非齊次項(xiàng)的形式有一定的要求,只適用于荷載項(xiàng)為幾種特殊項(xiàng)的情況。高小科等[6-10]將精細(xì)積分與數(shù)值積分法相結(jié)合,直接對(duì)積分解中的積分項(xiàng)進(jìn)行求解,避免了矩陣的求逆,常用的數(shù)值方法有辛普森、科茨、高斯等方法,但由于需要選擇積分點(diǎn),所以需要額外計(jì)算積分點(diǎn)的矩陣指數(shù)。富明慧等[11-12]利用遞推算法和矩形積分公式,提出了廣義精細(xì)積分算法(generalized precise time step integration method,GPTSIM),在非齊次項(xiàng)為多項(xiàng)式、指數(shù)函數(shù)以及三角函數(shù)情況下,具有優(yōu)越的計(jì)算性能。但對(duì)于其他形式的非齊次項(xiàng),需要先對(duì)非齊次項(xiàng)進(jìn)行擬合,此時(shí)數(shù)值解的精度主要取決于非齊次項(xiàng)擬合的精度。王海波等[13]在廣義精細(xì)積分算法的基礎(chǔ)上,結(jié)合泰勒級(jí)數(shù)對(duì)其進(jìn)行了推廣,但是實(shí)質(zhì)仍是采用多項(xiàng)式擬合非齊次項(xiàng)。同時(shí),在現(xiàn)有的積分計(jì)算方法中,步長(zhǎng)對(duì)結(jié)果的影響較大。選擇合適的步長(zhǎng)往往較為困難。

本文將精細(xì)積分法與神經(jīng)網(wǎng)絡(luò)相結(jié)合,提出一種基于對(duì)偶神經(jīng)網(wǎng)絡(luò)的積分算法。不同于其他的數(shù)值積分方法,該方法分別利用一組神經(jīng)網(wǎng)絡(luò)A和B逼近被積函數(shù)和原函數(shù),利用神經(jīng)網(wǎng)絡(luò)對(duì)任意非線性函數(shù)逼近的能力,實(shí)現(xiàn)對(duì)任意復(fù)雜形式函數(shù)的積分。本文采用對(duì)偶神經(jīng)網(wǎng)絡(luò)對(duì)精細(xì)積分解中的積分項(xiàng)進(jìn)行計(jì)算,在保證高精度的同時(shí),不對(duì)非齊次項(xiàng)的形式進(jìn)行任何假定,同時(shí)避免了對(duì)矩陣求逆。通過(guò)算例,驗(yàn)證了本文方法在任意荷載形式下均有良好的計(jì)算精度。

1 精細(xì)積分法

在結(jié)構(gòu)動(dòng)力分析中,一般動(dòng)力學(xué)方程為

(1)

式(1)的初始條件為

(2)

(3)

代入式(1)得

(4)

式(4)可以寫為

(5)

其中,

此時(shí),式(5)的解可以寫為

(6)

式(6)為動(dòng)力方程的解,對(duì)其進(jìn)行離散化處理,記時(shí)間步長(zhǎng)為Δt,有

(7)

令T=exp(H·Δt),得

(8)

式中,T為傳遞矩陣,可利用加法定理精確算得

T=exp(H·Δt)=[exp(H·Δt/m)]m]

(9)

令Δτ=Δt/m,取m=2N,當(dāng)N取20時(shí),Δτ很小,由泰勒級(jí)數(shù)可得

exp(H·Δτ)≈I+H·Δτ+(H·Δτ)2/2=I+Ta

(10)

從而

(11)

(12)

由于exp(-x)的存在,上述的積分計(jì)算困難。除常用的數(shù)值計(jì)算方法外,富明慧提出了一種廣義積分算法,在式(12)中f(x)為多項(xiàng)式、指數(shù)函數(shù)和三角函數(shù)情況下,廣義積分算法可以直接使用。但在實(shí)際應(yīng)用中,荷載項(xiàng)的形式往往很復(fù)雜,本文提出一種對(duì)偶神經(jīng)網(wǎng)絡(luò)積分算法,能夠適用于任意形式的荷載項(xiàng)。

2 對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法的原理

一個(gè)對(duì)偶神經(jīng)網(wǎng)絡(luò)包含A、B兩個(gè)前向型BP神經(jīng)網(wǎng)絡(luò)。其中,神經(jīng)網(wǎng)絡(luò)A用來(lái)學(xué)習(xí)積分算式中的被積函數(shù),另一個(gè)神經(jīng)網(wǎng)絡(luò)B,會(huì)通過(guò)與神經(jīng)網(wǎng)絡(luò)A在權(quán)值和激活函數(shù)上的特定聯(lián)系,由神經(jīng)網(wǎng)絡(luò)A來(lái)確定,用于構(gòu)建積分被積函數(shù)的原函數(shù)。神經(jīng)網(wǎng)絡(luò)B的結(jié)構(gòu)框圖如圖1所示。

圖1 神經(jīng)網(wǎng)絡(luò)B原函數(shù)示意圖Fig.1 Schematic diagram of original function of neural network B

神經(jīng)網(wǎng)絡(luò)B中網(wǎng)絡(luò)輸出和輸入變量間函數(shù)關(guān)系如式(13)所示

(13)

對(duì)神經(jīng)網(wǎng)絡(luò)B確定的函數(shù)關(guān)系式(13)左右兩側(cè)同時(shí)對(duì)變量x進(jìn)行求導(dǎo)數(shù),得到式(14)

(14)

(15)

則式(14)可以改寫為

(16)

圖2 神經(jīng)網(wǎng)絡(luò)A被積函數(shù)示意圖Fig.2 Schematic diagram of integrand function of neural network A

(17)

神經(jīng)網(wǎng)絡(luò)A與神經(jīng)網(wǎng)絡(luò)B為一對(duì)關(guān)于變量的積分對(duì)偶神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱對(duì)偶神經(jīng)網(wǎng)絡(luò)。

式(17)中

(18)

由上述可知,通過(guò)訓(xùn)練被積函數(shù)樣本點(diǎn)集合,則可以通過(guò)對(duì)偶神經(jīng)網(wǎng)絡(luò)方法獲得被積函數(shù)的原函數(shù),在此基礎(chǔ)上,可以根據(jù)牛頓萊布尼茨公式得出積分值,至此實(shí)現(xiàn)了積分的計(jì)算。

3 對(duì)偶神經(jīng)網(wǎng)絡(luò)求解積分項(xiàng)

對(duì)于計(jì)算結(jié)果中需要進(jìn)行積分的式(8)

式中,T可由精細(xì)算法算得。

設(shè)積分項(xiàng)的被積函數(shù)為yk(τ)=exp[H(tk+1-τ)]·F(τ),其中,H為n×n矩陣,F(xiàn)(τ)為n×1矩陣,輸出yk(τ)為n×1矩陣。

圖3 被積函數(shù)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.3 Schematic diagram of integrand function network structure

y(τ)=NETAk(τ)

(19)

圖4 原函數(shù)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.4 Schematic diagram of original function network structure

Y(τ)=NETBk(τ)

(20)

至此,式(8)可以寫成

(21)

由上述計(jì)算過(guò)程可知,對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法保留了數(shù)值積分的特點(diǎn),在計(jì)算過(guò)程中只需要各時(shí)間點(diǎn)的荷載值,對(duì)函數(shù)的形式并無(wú)任何要求,因此能夠適用于任意荷載形式。

4 算 例

算例一

通過(guò)上述積分來(lái)檢驗(yàn)本文算法的精度,同時(shí)與富明慧等研究中的廣義積分算法進(jìn)行比較。

廣義積分算法選用不同冪級(jí)數(shù)階次在t=0處擬合函數(shù)ln(1+t),K為選用冪級(jí)數(shù)的階數(shù)。

對(duì)偶神經(jīng)網(wǎng)絡(luò)計(jì)算步驟如下:

步驟1構(gòu)建神經(jīng)網(wǎng)絡(luò)A學(xué)習(xí)被積函數(shù)etln(1+t),隱層和輸出層的激活函數(shù)分別為sigmoid、purelin,神經(jīng)網(wǎng)絡(luò)層數(shù)為3層,隱層單元個(gè)數(shù)為30,輸入層單元個(gè)數(shù)為1,輸出層單元個(gè)數(shù)為1。

步驟2將t的取值范圍[0,0.1]進(jìn)行50等分取值構(gòu)成網(wǎng)絡(luò)A輸入樣本,計(jì)算函數(shù)etln(1+t)的值做為網(wǎng)絡(luò)A的輸出樣本。

步驟3訓(xùn)練神經(jīng)網(wǎng)絡(luò)A,訓(xùn)練誤差設(shè)置為1×10-6,最大訓(xùn)練步數(shù)2 000。訓(xùn)練完成后,由式(15)即可得到原函數(shù)網(wǎng)絡(luò)B,神經(jīng)網(wǎng)絡(luò)B的隱層和輸出層激活函數(shù)分別為softplus、purelin。

計(jì)算結(jié)果如表1所示(表中結(jié)果加粗字體部分為與精確解不同部分)。

表1 神經(jīng)網(wǎng)絡(luò)積分法和廣義積分法結(jié)果與精確解比較Tab.1 Comparison of the results of neural network integration method and GPTSIM with the exact solution

由表1中數(shù)據(jù)可以看出,廣義積分法在冪級(jí)數(shù)階數(shù)較低的時(shí)候精度較差,隨著冪級(jí)數(shù)擬合階數(shù)的提高,精度逐步提高。這是因?yàn)閺V義積分法中需要先采用冪級(jí)數(shù)對(duì)積分項(xiàng)進(jìn)行擬合,然后利用遞推格式得到積分結(jié)果。而一些復(fù)雜函數(shù)在冪級(jí)數(shù)擬合過(guò)程會(huì)產(chǎn)生較大的誤差,所以廣義積分法的精度取決于擬合精度。而對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法采用一個(gè)神經(jīng)網(wǎng)絡(luò)A擬合積分項(xiàng),根據(jù)萬(wàn)能逼近原理,一個(gè)三層神經(jīng)網(wǎng)絡(luò)能夠逼近任意函數(shù),在神經(jīng)網(wǎng)絡(luò)A無(wú)限逼近被積函數(shù)的同時(shí),神經(jīng)網(wǎng)絡(luò)B無(wú)限逼近原函數(shù)。通過(guò)調(diào)整隱層單元的個(gè)數(shù),對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法能夠達(dá)到高精度。通過(guò)對(duì)比,神經(jīng)網(wǎng)絡(luò)在擬合樣本容量為50的情況下就已經(jīng)達(dá)到與五階廣義積分法解的同等精度,表明了本文對(duì)偶神經(jīng)網(wǎng)絡(luò)積分具有較高精度。同時(shí),通過(guò)提高樣本容量,也能進(jìn)一步提高對(duì)偶神經(jīng)網(wǎng)絡(luò)的積分精度。

算例二

運(yùn)動(dòng)方程

其中,

步驟1構(gòu)建神經(jīng)網(wǎng)絡(luò)A學(xué)習(xí)被積函數(shù)exp[H(tk+1-τ)]·F(τ),由于H為4×4矩陣,F(xiàn)(τ)為4×1矩陣,因此設(shè)置神經(jīng)網(wǎng)絡(luò)A的輸出層單元個(gè)數(shù)為4,其輸入層單元個(gè)數(shù)為1,隱藏層單元個(gè)數(shù)為30,隱層和輸出層激活函數(shù)分別為sigmoid、purelin。

步驟2將τ在區(qū)間[tk,tk+1]范圍內(nèi)100等分取值構(gòu)成神經(jīng)網(wǎng)絡(luò)A輸入樣本,計(jì)算函數(shù)exp[H(tk+1-τ)]·F(τ)的值做為神經(jīng)網(wǎng)絡(luò)A的輸出樣本。

步驟3訓(xùn)練神經(jīng)網(wǎng)絡(luò)A,訓(xùn)練誤差設(shè)置為1×10-6,最大訓(xùn)練步數(shù)2 000。訓(xùn)練完成后,由式(15)即可得到原函數(shù)網(wǎng)絡(luò)B,神經(jīng)網(wǎng)絡(luò)B的隱層和輸出層激活函數(shù)分別為softplus、purelin,神經(jīng)網(wǎng)絡(luò)B的網(wǎng)絡(luò)權(quán)值由神經(jīng)網(wǎng)絡(luò)A確定。

為便于比較,取與解析精細(xì)積分法相同步長(zhǎng)0.28。計(jì)算結(jié)果如表2所示(表中結(jié)果加粗字體部分為與精確解不同部分)。

表2 x1,x2位移Tab.2 Displacement of x1,x2

從表2中數(shù)據(jù)可以看出,在荷載為常數(shù)荷載時(shí),精細(xì)時(shí)程積分的計(jì)算結(jié)果與精確解在有效位數(shù)內(nèi)完全一致,具有足夠的計(jì)算精度。這是因?yàn)榫?xì)時(shí)程積分法假設(shè)非齊次項(xiàng)在步長(zhǎng)[tk,tk+1]范圍內(nèi)是線性的,當(dāng)荷載項(xiàng)為常數(shù)時(shí),由于步長(zhǎng)時(shí)間較小,精細(xì)時(shí)程積分的線性化假設(shè)對(duì)計(jì)算結(jié)果影響較小。但是精細(xì)時(shí)程積分法在計(jì)算中需要對(duì)矩陣H求逆,限制了精細(xì)時(shí)程積分法的應(yīng)用范圍。而對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法對(duì)積分項(xiàng)進(jìn)行直接積分,使用神經(jīng)網(wǎng)絡(luò)對(duì)積分函數(shù)進(jìn)行逼近,因此不涉及矩陣求逆,同時(shí)可以看出,神經(jīng)網(wǎng)絡(luò)積分法的計(jì)算結(jié)果在有效位數(shù)內(nèi)與精細(xì)時(shí)程積分完全一致,說(shuō)明了對(duì)偶神經(jīng)網(wǎng)絡(luò)積分在避免矩陣求逆的同時(shí)也保證了精度。而威爾遜-θ法隨著時(shí)間的增長(zhǎng),誤差不斷增大。

算例三

運(yùn)動(dòng)方程

本算例的荷載為非線性正弦荷載,其解析解為

分別采用精細(xì)時(shí)程積分以及直接積分法中的科茨公式、高斯公式和GPTSIM與本文對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法進(jìn)行對(duì)比。GPTSIM采用泰勒級(jí)數(shù)展開形式下的廣義精細(xì)積分法,并經(jīng)過(guò)精度修正。

由于對(duì)偶神經(jīng)網(wǎng)絡(luò)計(jì)算積分對(duì)函數(shù)形式?jīng)]有要求,因此算例三對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)與算例二相同,神經(jīng)網(wǎng)絡(luò)A的輸出層單元個(gè)數(shù)為4,輸入層單元個(gè)數(shù)為1,隱藏層單元個(gè)數(shù)為30,訓(xùn)練誤差設(shè)置為1×10-9,最大訓(xùn)練步數(shù)5 000。計(jì)算步驟也與算例二相同。

計(jì)算結(jié)果如表3所示(為方便比較,列出x1的值,表中結(jié)果加粗字體部分為與精確解不同部分)。

表3 x1位移Tab.3 Displacement of x1

算例3的激勵(lì)為正弦荷載,具有振蕩性。由表3數(shù)據(jù)可以看出,不同于常數(shù)荷載,在非線性荷載情況下,精細(xì)時(shí)程積分法的計(jì)算結(jié)果隨著時(shí)間的增加,精度明顯降低,這是因?yàn)闀r(shí)程積分在對(duì)時(shí)間域內(nèi)的荷載進(jìn)行了線性化假設(shè),而非線性荷載線性化產(chǎn)生的誤差會(huì)隨著時(shí)間增長(zhǎng)不斷累積,導(dǎo)致計(jì)算結(jié)果誤差也不斷增大??拼墓?、高斯公式在正弦荷載情況下給出了較高精度的解,說(shuō)明了傳統(tǒng)的數(shù)值積分方法仍是保證動(dòng)力方程精細(xì)積分高精度的有效積分算法。GPTSIM和對(duì)偶神經(jīng)網(wǎng)絡(luò)算法在6位有效數(shù)字內(nèi)都與精確解一致,GPTSIM是在荷載為多項(xiàng)式、三角函數(shù)、指數(shù)函數(shù)情況下歸納出的一種遞推算法,因此本算例中GPTSIM精度較高,對(duì)于其他形式的荷載,需要先擬合成三次樣條函數(shù)、傅里葉級(jí)數(shù)、泰勒級(jí)數(shù)等形式。因此與精細(xì)時(shí)程積分法類似,GPTSIM的誤差除了計(jì)算誤差外,還來(lái)源于擬合誤差。而對(duì)偶神經(jīng)網(wǎng)絡(luò)對(duì)荷載形式?jīng)]有任何要求,同時(shí)還保證了計(jì)算的高精度。

5 結(jié) 論

(1)本文基于精細(xì)積分法和神經(jīng)網(wǎng)絡(luò),提出了一種用于求解動(dòng)力方程的計(jì)算方法。該方法針對(duì)動(dòng)力方程在哈密頓體系下得到的積分形式的解,利用一組神經(jīng)網(wǎng)絡(luò)同時(shí)逼近被積函數(shù)和原函數(shù),從而實(shí)現(xiàn)解中積分項(xiàng)的求解。計(jì)算過(guò)程中避免了矩陣求逆,具有對(duì)步長(zhǎng)不敏感、不用對(duì)非齊次項(xiàng)進(jìn)行假設(shè)等優(yōu)點(diǎn)。最后通過(guò)算例表明,本方法是神經(jīng)網(wǎng)絡(luò)與精細(xì)積分的有效結(jié)合,是一個(gè)精準(zhǔn)有效的算法。

(2)本文方法是對(duì)精細(xì)積分法的一種拓展,利用對(duì)偶神經(jīng)網(wǎng)絡(luò)方法對(duì)動(dòng)力方程哈密頓體系下積分解中的涉及到的積分進(jìn)行求解,將精細(xì)積分法的應(yīng)用范圍拓展到線性荷載、簡(jiǎn)諧荷載以外的任意非齊次項(xiàng)形式。同時(shí),對(duì)偶神經(jīng)網(wǎng)絡(luò)積分法本質(zhì)是一種數(shù)值積分計(jì)算方法,能夠適用于大部分積分問(wèn)題,具有廣闊的應(yīng)用前景。

猜你喜歡
原函數(shù)積分法對(duì)偶
幾類間斷點(diǎn)與原函數(shù)存在性的關(guān)系辨析
卷宗(2020年34期)2021-01-29 05:36:24
三角函數(shù)最值的求解類型及策略
巧用第一類換元法求解不定積分
原函數(shù)是非初等函數(shù)的定積分的計(jì)算方法
一個(gè)包含Smarandache原函數(shù)與六邊形數(shù)的方程
對(duì)偶平行體與對(duì)偶Steiner點(diǎn)
隨機(jī)結(jié)構(gòu)地震激勵(lì)下的可靠度Gauss-legendre積分法
對(duì)偶均值積分的Marcus-Lopes不等式
對(duì)偶Brunn-Minkowski不等式的逆
基于積分法的軸對(duì)稱拉深成形凸緣區(qū)應(yīng)力、應(yīng)變數(shù)值解
南通市| 东海县| 陈巴尔虎旗| 比如县| 清镇市| 保德县| 得荣县| 灯塔市| 新竹市| 商洛市| 汝南县| 老河口市| 仁怀市| 武安市| 额尔古纳市| 高唐县| 巴青县| 洛扎县| 大关县| 宁南县| 丹巴县| 赤壁市| 莱州市| 宜城市| 延寿县| 康保县| 永仁县| 治县。| 塘沽区| 丰都县| 武汉市| 民乐县| 新泰市| 额尔古纳市| 化隆| 安丘市| 兴业县| 五家渠市| 通州区| 进贤县| 登封市|