国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于生成對(duì)抗網(wǎng)絡(luò)的跨分辨率拓?fù)鋬?yōu)化方法的比較研究

2024-04-11 02:14:06朱赫鵬李小白
振動(dòng)與沖擊 2024年6期
關(guān)鍵詞:高分辨率分辨率損失

朱赫鵬, 丁 喆, 張 嚴(yán), 李小白

(1. 武漢科技大學(xué) 機(jī)械傳動(dòng)與制造工程湖北省重點(diǎn)實(shí)驗(yàn)室,武漢 430081;2. 武漢科技大學(xué) 冶金裝備及其控制教育部重點(diǎn)實(shí)驗(yàn)室,武漢 430081;3. 武漢科技大學(xué) 精密制造研究院,武漢 430081)

拓?fù)鋬?yōu)化通過尋求設(shè)計(jì)域內(nèi)材料的最優(yōu)分布,力求在滿足約束的條件下,獲得性能最優(yōu)的結(jié)構(gòu)拓?fù)湫问?是一種先進(jìn)的結(jié)構(gòu)優(yōu)化設(shè)計(jì)方法,已被廣泛地應(yīng)用于汽車以及航空航天等領(lǐng)域[1-2]。目前,常用的拓?fù)鋬?yōu)化方法主要有固體各向同性材料懲罰法(solid isotropic materialwith penalization, SIMP)[3]、漸進(jìn)結(jié)構(gòu)優(yōu)化法[4]、水平集法[5]和獨(dú)立連續(xù)映射法(independent continuous mapping, ICM)[6]等。為了實(shí)現(xiàn)復(fù)雜結(jié)構(gòu)系統(tǒng)的高性能設(shè)計(jì),需要對(duì)其進(jìn)行更精細(xì)化的網(wǎng)格劃分。而隨著結(jié)構(gòu)單元數(shù)量的增加,相應(yīng)拓?fù)鋬?yōu)化過程所需的計(jì)算成本也顯著增加。尤其當(dāng)涉及三維結(jié)構(gòu)時(shí),設(shè)計(jì)變量與結(jié)構(gòu)單元數(shù)目的增加共同導(dǎo)致了拓?fù)鋬?yōu)化中有限元分析和迭代過程計(jì)算消耗的急劇增加。值得一提的是,本文后續(xù)所指的“分辨率”表示有限元網(wǎng)格劃分的精密度,獲得高分辨率結(jié)構(gòu)需要更精細(xì)的網(wǎng)格劃分。因此,如何提高高分辨率拓?fù)鋬?yōu)化方法的計(jì)算效率已成為當(dāng)前拓?fù)鋬?yōu)化領(lǐng)域的熱點(diǎn)問題[7-8]。

近年來,由于深度學(xué)習(xí)算法具有強(qiáng)大的擬合復(fù)雜函數(shù)以及特征表示的能力,已在圖像處理、自動(dòng)駕駛和信號(hào)識(shí)別等領(lǐng)域得到了廣泛應(yīng)用[9-10]。實(shí)際上,拓?fù)鋬?yōu)化問題可抽象表示為優(yōu)化目標(biāo)與初始約束條件間的復(fù)雜函數(shù)[11]。因此將深度學(xué)習(xí)算法與拓?fù)鋬?yōu)化方法相結(jié)合,可大幅提高傳統(tǒng)拓?fù)鋬?yōu)化方法的計(jì)算效率,實(shí)現(xiàn)復(fù)雜結(jié)構(gòu)系統(tǒng)的精細(xì)、高效和智能優(yōu)化。目前,已有眾多將深度學(xué)習(xí)與拓?fù)鋬?yōu)化相結(jié)合的研究[12-13],按照優(yōu)化前后分辨率是否發(fā)生變化可分為同分辨率和跨分辨率拓?fù)鋬?yōu)化設(shè)計(jì)。

同分辨率拓?fù)鋬?yōu)化指在深度學(xué)習(xí)模型中預(yù)測結(jié)構(gòu)的輸入與輸出保持相同維度。Sosnovik等[14]通過SIMP法得到樣本數(shù)據(jù),利用U-Net網(wǎng)絡(luò)將中間構(gòu)型作為輸入預(yù)測得到對(duì)應(yīng)最優(yōu)構(gòu)型,實(shí)現(xiàn)了對(duì)SIMP法的加速。Deng等[15]針對(duì)柔順度和應(yīng)力約束的多目標(biāo)拓?fù)鋬?yōu)化問題,將密度場信息作為輸入預(yù)測得到優(yōu)化結(jié)構(gòu),與傳統(tǒng)拓?fù)鋬?yōu)化方法相比,基于深度學(xué)習(xí)的方法所需設(shè)計(jì)變量顯著減少。Zhang等[16]基于神經(jīng)網(wǎng)絡(luò)算法,將位移和應(yīng)變作為輸入來預(yù)測最優(yōu)構(gòu)型。上述基于深度學(xué)習(xí)的拓?fù)鋬?yōu)化方法雖大幅提高了優(yōu)化效率,但并不能提高預(yù)測結(jié)構(gòu)的分辨率。

為此,一些學(xué)者提出了跨分辨率的拓?fù)鋬?yōu)化結(jié)構(gòu)預(yù)測方法,通過對(duì)樣本數(shù)據(jù)的學(xué)習(xí),建立低分辨率與高分辨率結(jié)構(gòu)之間的端到端映射關(guān)系,進(jìn)而對(duì)輸入的低分辨率結(jié)構(gòu)進(jìn)行重構(gòu),即通過輸入低分辨率結(jié)構(gòu)的特征可預(yù)測得到對(duì)應(yīng)高分辨率的優(yōu)化結(jié)構(gòu)。Yu等[17]采用變分自編碼器和生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network, GAN)通過兩階段方法實(shí)現(xiàn)了跨分辨率拓?fù)鋬?yōu)化。Li等利用由兩個(gè)耦合神經(jīng)網(wǎng)絡(luò)組成的兩階段預(yù)測-精細(xì)化網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行跨分辨率導(dǎo)熱結(jié)構(gòu)的拓?fù)鋬?yōu)化,顯著降低了優(yōu)化設(shè)計(jì)的計(jì)算量。雖然基于深度學(xué)習(xí)的非迭代拓?fù)鋬?yōu)化方法具有較高的效率,且可以實(shí)現(xiàn)跨分辨率預(yù)測,但與單一網(wǎng)絡(luò)的跨分辨率預(yù)測相比,多網(wǎng)絡(luò)預(yù)測方法會(huì)加大預(yù)測結(jié)構(gòu)的誤差。此外,上述跨分辨率拓?fù)鋬?yōu)化方法研究均未涉及三維結(jié)構(gòu)的預(yù)測。

生成對(duì)抗網(wǎng)絡(luò)通過生成器和判別器的相互博弈,來幫助生成器獲取真實(shí)樣本的數(shù)據(jù)分布情況,從而生成所需數(shù)據(jù)。目前,GAN網(wǎng)絡(luò)在圖像處理領(lǐng)域里的應(yīng)用最為出彩,它可以實(shí)現(xiàn)各式各樣的圖像生成,例如圖像分割等[18]。但在其應(yīng)用中也面臨著一些困難與挑戰(zhàn),例如訓(xùn)練不穩(wěn)定、梯度消失和生成樣本多樣性不足等。因此,針對(duì)GAN的改進(jìn)模型也不斷涌現(xiàn)。在CGAN(conditional generative adversarial network)的基礎(chǔ)上,Isola等[19]提出了Pix2pix網(wǎng)絡(luò),生成器的結(jié)構(gòu)使用了U-Net結(jié)構(gòu),并引入了L1損失,極大地改善了圖像映射效果。Wang等[20]在SRGAN(super resolution generative adversarial network)網(wǎng)絡(luò)的基礎(chǔ)上,提出了ESRGAN(enhanced super resolution generative adversarial network)網(wǎng)絡(luò),該模型在生成器上使用殘差密集塊來提升模型的結(jié)構(gòu),擴(kuò)大了網(wǎng)絡(luò)的容量且提高了網(wǎng)絡(luò)的特征學(xué)習(xí)能力。葉紅玲等[21]利用ICM法建立數(shù)據(jù)集并引入CGAN網(wǎng)絡(luò)實(shí)現(xiàn)了單一網(wǎng)絡(luò)的跨分辨率設(shè)計(jì),但所得結(jié)果的效率和精度有待進(jìn)一步提高??绶直媛释?fù)鋬?yōu)化方法不僅提高了傳統(tǒng)拓?fù)鋬?yōu)化設(shè)計(jì)效率,且在保證預(yù)測結(jié)構(gòu)精度的前提下,提高了預(yù)測結(jié)構(gòu)的分辨率,進(jìn)而實(shí)現(xiàn)對(duì)結(jié)構(gòu)的精細(xì)化設(shè)計(jì)。

基于上述分析,本文利用改進(jìn)的Pix2pix網(wǎng)絡(luò)和Esrgan網(wǎng)絡(luò)構(gòu)建了兩種單一網(wǎng)絡(luò)的跨分辨率結(jié)構(gòu)拓?fù)鋬?yōu)化設(shè)計(jì)方法,并將其擴(kuò)展至三維結(jié)構(gòu)的跨分辨率拓?fù)鋬?yōu)化預(yù)測。首先以結(jié)構(gòu)柔順度最小化為目標(biāo)函數(shù),利用SIMP法獲得低分辨率和對(duì)應(yīng)高分辨率構(gòu)型的數(shù)據(jù)集,并將載荷方向和體積分?jǐn)?shù)等變量編碼化作為網(wǎng)絡(luò)的輸入;通過設(shè)置相關(guān)網(wǎng)絡(luò)參數(shù)進(jìn)行網(wǎng)絡(luò)模型訓(xùn)練,進(jìn)而得到預(yù)訓(xùn)練網(wǎng)絡(luò)模型;基于預(yù)訓(xùn)練網(wǎng)絡(luò)模型得到預(yù)測結(jié)果,并對(duì)兩種網(wǎng)絡(luò)所得預(yù)測結(jié)果進(jìn)行評(píng)估;最后將上述方法所得預(yù)測結(jié)果與基于CGAN網(wǎng)絡(luò)的預(yù)測結(jié)果進(jìn)行對(duì)比,以驗(yàn)證所提方法在像素點(diǎn)準(zhǔn)確率、柔順度準(zhǔn)確率、體積分?jǐn)?shù)和預(yù)測時(shí)間等方面的優(yōu)勢。

1 相關(guān)理論和技術(shù)基礎(chǔ)

1.1 基于SIMP的最小化柔順度拓?fù)鋬?yōu)化

SIMP方法是在均勻化方法的基礎(chǔ)上提出的一種變密度法。在SIMP法中,通過引入0~1區(qū)間連續(xù)變化的單元密度,并以單元密度作為設(shè)計(jì)變量,通過建立單元密度與材料彈性模量之間的函數(shù)關(guān)系,將拓?fù)鋬?yōu)化問題轉(zhuǎn)化為最優(yōu)材料分布問題。采用材料插值模型的方法,讓優(yōu)化過程中的單元密度趨向“1”和“0”,從而減少了中間密度單元的產(chǎn)生,成為目前拓?fù)鋬?yōu)化方法中最常用的密度插值模型之一。

本文以單元相對(duì)密度為設(shè)計(jì)變量,結(jié)構(gòu)的全局體積分?jǐn)?shù)為約束條件,結(jié)構(gòu)最小化柔順度為目標(biāo)函數(shù)來建立優(yōu)化模型,對(duì)應(yīng)的數(shù)學(xué)模型可表示為

(1)

式中:e為第e個(gè)單元;ρe為第e個(gè)單元的密度值,取值范圍為[ρemin,1];ρemin為單元密度的最小密度值,本文設(shè)置為1×10-6;C為結(jié)構(gòu)柔順度;K為結(jié)構(gòu)的整體剛度矩陣;U為位移矢量;F為施加載荷;V為迭代過程中的實(shí)體單元體積;V0為初始體積;Vf為優(yōu)化結(jié)構(gòu)的許用材料體積分?jǐn)?shù)。

1.2 Pix2pix網(wǎng)絡(luò)結(jié)構(gòu)

生成對(duì)抗網(wǎng)絡(luò)的結(jié)構(gòu)對(duì)模型解決問題的能力起著至關(guān)重要的作用。相比于CGAN網(wǎng)絡(luò),Pix2pix網(wǎng)絡(luò)修改了CGAN的損失函數(shù),并將U-Net集成至框架中作為生成器。利用U-Net和CGAN的優(yōu)勢,大幅度提高了Pix2pix網(wǎng)絡(luò)生成圖像的精度,并具有能夠高精度提取目標(biāo)信息邊界的優(yōu)勢。然而,傳統(tǒng)U-Net網(wǎng)絡(luò)結(jié)構(gòu)內(nèi)部為卷積模塊,在卷積層傳遞信息時(shí)容易產(chǎn)生部分信息丟失的現(xiàn)象。如圖1所示,本文使用殘差模塊替代傳統(tǒng)U-Net網(wǎng)絡(luò)內(nèi)部的卷積模塊,使信息直接從輸入端傳至輸出端,進(jìn)而保證輸入信息的完整性,且滿足拓?fù)鋬?yōu)化問題要求得到明確結(jié)構(gòu)邊界和結(jié)構(gòu)輪廓這一要求,為了實(shí)現(xiàn)跨分辨率結(jié)構(gòu)預(yù)測,反卷積層輸出維度為卷積層輸入維度的兩倍,以解決二維和三維結(jié)構(gòu)的跨分辨率拓?fù)鋬?yōu)化問題。判別器采用馬爾科夫判別器,如圖2所示,將輸入圖像切分成大小不同的圖像塊進(jìn)行判別。該方法更注重輸出圖像整體的效果,避免了判別器因某個(gè)區(qū)域的生成效果“逼真”而將整幅圖像判別為“真”。

圖1 Pix2pix生成器網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Generator of the pix2pix network structure

圖2 Pix2pix判別器網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Discriminator of the Pix2pix network structure

Pix2pix網(wǎng)絡(luò)包含生成器和判別器損失函數(shù)。與CGAN網(wǎng)絡(luò)相比,Pix2pix網(wǎng)絡(luò)還在生成器內(nèi)引入了像素?fù)p失,可增強(qiáng)模型的收斂能力并提高最終預(yù)測結(jié)構(gòu)的準(zhǔn)確率。生成器的整體損失可表示為

(2)

而判別器的損失函數(shù)是一個(gè)標(biāo)準(zhǔn)的二分類交叉熵?fù)p失函數(shù),其公式為

(3)

1.3 Esrgan網(wǎng)絡(luò)結(jié)構(gòu)

增強(qiáng)型超分辨率生成對(duì)抗網(wǎng)絡(luò)由生成器RRDBNet(residual in residual dense block net)與相對(duì)判別器組成[22]。相較于條件生成對(duì)抗網(wǎng)絡(luò)Pix2pix,Esrgan網(wǎng)絡(luò)做出了以下優(yōu)化:①將網(wǎng)絡(luò)的基本單元由殘差模塊替換為RRDB模塊;②移除了生成網(wǎng)絡(luò)中的標(biāo)準(zhǔn)化層,提升了網(wǎng)絡(luò)的泛化能力;③將GAN網(wǎng)絡(luò)改進(jìn)為RaGAN(relativistic average generative adversarial network),這一改動(dòng)有助于生成器學(xué)習(xí)更清晰的邊緣信息和更豐富的紋理細(xì)節(jié)。因此,本文將引入Esrgan網(wǎng)絡(luò)用于解決跨分辨率拓?fù)鋬?yōu)化問題,生成器RRDBNet網(wǎng)絡(luò)結(jié)構(gòu)由多層殘差網(wǎng)絡(luò)和密集連接組成,如圖3所示,該網(wǎng)絡(luò)的主框架由淺層特征提取網(wǎng)絡(luò)、深層特征提取網(wǎng)絡(luò)、密集特征融合網(wǎng)絡(luò)和上采樣網(wǎng)絡(luò)4個(gè)重要部分組成。

圖3 Esrgan生成器網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Generator of the Esrgan network structure

判別器采用相對(duì)平均判別器(relativistic average discriminator,RaD)記為DRa,該判別器試圖預(yù)測真實(shí)圖像xr比樣本圖像xf更真實(shí)的概率。判別器的損失函數(shù)可定義為

LDRa=-Exr{ln[DRa(xr,xf)]}-
Exf{ln[1-DRa(xf,xr)]}

(4)

Esrgan網(wǎng)絡(luò)的損失函數(shù)由生成器和判別器損失函數(shù)組成,且生成器損失函數(shù)除了對(duì)抗損失函數(shù)外,另引入了感知損失函數(shù)和平均絕對(duì)損失函數(shù)。具體公式如下

(5)

式中:LGRa為生成器的對(duì)抗損失;L1為平均絕對(duì)損失;Lpercep為感知損失函數(shù);xi為低分辨率圖像;xf為生成器所生成的高分辨率圖像;λ和η為平衡不同損失項(xiàng)的系數(shù)。

1.4 所提出的基于深度學(xué)習(xí)的跨分辨率拓?fù)鋬?yōu)化算法流程

本文基于Pix2pix和Esrgan網(wǎng)絡(luò)所提出的跨分辨率拓?fù)鋬?yōu)化方法主要分為三個(gè)部分:獲取樣本數(shù)據(jù)、訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)以及得到預(yù)測結(jié)構(gòu)。首先,通過SIMP法得到跨分辨率數(shù)據(jù)集;其次,搭建基于Pix2pix和Esrgan的深度學(xué)習(xí)模型,將樣本數(shù)據(jù)輸入至網(wǎng)絡(luò)以得到預(yù)訓(xùn)練網(wǎng)絡(luò)模型;最終,將低分辨率構(gòu)型輸入至預(yù)訓(xùn)練網(wǎng)絡(luò)模型,網(wǎng)絡(luò)直接生成對(duì)應(yīng)高分辨率優(yōu)化結(jié)構(gòu)。其算法流程如圖4所示。

圖4 基于深度學(xué)習(xí)的跨分辨率拓?fù)鋬?yōu)化算法流程圖Fig.4 Algorithm flowchart of the cross-resolution topology optimization methods based on deep learning

2 數(shù)值算例

2.1 數(shù)據(jù)集生成

本文以二維懸臂梁和三維懸臂梁為優(yōu)化算例,對(duì)二維方形懸臂梁進(jìn)行42×42和84×84的單元?jiǎng)澐?對(duì)二維矩形懸臂梁進(jìn)行40×25和80×50的單元?jiǎng)澐?對(duì)三維懸臂梁進(jìn)行60×20×2和120×40×4的單元?jiǎng)澐?。上述低密度網(wǎng)格劃分對(duì)應(yīng)低分辨率中間結(jié)構(gòu),而高密度的網(wǎng)格劃分對(duì)應(yīng)高分辨率優(yōu)化結(jié)構(gòu)。采用SIMP插值模型在MATLAB軟件中得到數(shù)據(jù)集。

二維懸臂梁的載荷均作用于懸臂梁右端,載荷數(shù)量為1、載荷作用點(diǎn),體積分?jǐn)?shù)以及載荷方向均在給定范圍內(nèi)均勻變化,變量編碼信息如圖5所示。設(shè)計(jì)每個(gè)輸入通道的大小為86×86,三個(gè)通道分別表示X和Y方向上的載荷、位移和體積分?jǐn)?shù)。三維懸臂梁的載荷作用在右端面中心節(jié)點(diǎn)線處,載荷數(shù)量為1,體積分?jǐn)?shù),載荷角度和載荷作用點(diǎn)也符合均勻分布,詳細(xì)信息如下:①體積分?jǐn)?shù),0.4~0.6(每次增加 0.01);②載荷方向,0°~160°(每次增加20°);③載荷作用點(diǎn),懸臂梁右端面。

圖5 二維結(jié)構(gòu)輸入信息Fig.5 The input information of 2D structure

圖6 三維結(jié)構(gòu)輸入信息Fig.6 The input information of 3D structure

與二維拓?fù)鋬?yōu)化設(shè)計(jì)方法不同,三維結(jié)構(gòu)在深度方向上具有一個(gè)維度的數(shù)據(jù)信息,每個(gè)變量信息的編碼大小應(yīng)該為 61×21×3,對(duì)應(yīng)網(wǎng)絡(luò)中輸入層的每通道大小為61×21×1,三維結(jié)構(gòu)的變量編碼信息如圖 6所示。

2.2 二維算例結(jié)果

2.2.1 網(wǎng)絡(luò)的參數(shù)設(shè)置與損失函數(shù)對(duì)比

利用基于SIMP法的最小化柔順度拓?fù)鋬?yōu)化方法時(shí),共計(jì)生成了3 780個(gè)低分辨率構(gòu)型和對(duì)應(yīng)的高分辨率優(yōu)化構(gòu)型,二者組成包含7 560個(gè)樣本數(shù)據(jù)。數(shù)據(jù)集以9∶1的比率被分為訓(xùn)練集和測試集兩部分。對(duì)生成對(duì)抗網(wǎng)絡(luò)模型的參數(shù)進(jìn)行設(shè)定,生成器和判別器模型的學(xué)習(xí)率均為0.000 2,小批量數(shù)據(jù)設(shè)置為5,使用ADAM優(yōu)化器對(duì)模型進(jìn)行訓(xùn)練,使用交替訓(xùn)練的方法更新生成器與判別器。由式(2)和式(3)計(jì)算得出Pix2pix網(wǎng)絡(luò)生成器、判別器以及L1損失函數(shù)值;由式(4)和式(5)得出Esrgan網(wǎng)絡(luò)生成器、判別器以及L1損失函數(shù)值。將Pix2pix和Esrgan網(wǎng)絡(luò)訓(xùn)練過程曲線進(jìn)行對(duì)比,如圖7所示。

圖7 網(wǎng)絡(luò)損失函數(shù)曲線Fig.7 Network loss function curves

由圖7可知,隨著迭代次數(shù)的增加,兩種網(wǎng)絡(luò)的生成損失和判別損失整體呈現(xiàn)下降趨勢,曲線后段趨于平緩。在經(jīng)過200次迭代后,網(wǎng)絡(luò)模型訓(xùn)練過程的曲線收斂,生成器與判別器之間的博弈達(dá)到均衡。由于Esrgan網(wǎng)絡(luò)生成器采用密集殘差塊RRDB,增加了網(wǎng)絡(luò)深度并減少了參數(shù)量;且相較于Pix2pix網(wǎng)絡(luò)全卷積判別器,Esrgan采用的相對(duì)平均判別器有助于學(xué)習(xí)更優(yōu)質(zhì)的邊緣與紋理信息,因此,Esrgan網(wǎng)絡(luò)生成器損失值和判別器損失值均低于Pix2pix,準(zhǔn)確率高于Pix2pix網(wǎng)絡(luò)。

2.2.2 二維預(yù)測結(jié)構(gòu)網(wǎng)絡(luò)可行性對(duì)比

本節(jié)通過數(shù)值算例測試基于生成對(duì)抗網(wǎng)絡(luò)拓?fù)鋬?yōu)化方法的性能。將SIMP法計(jì)算的結(jié)果作為參考值分別與Pix2pix和Esrgan所得結(jié)果進(jìn)行像素點(diǎn)準(zhǔn)確率(Acc)、柔順度(C)、體積分?jǐn)?shù)(Vol)和預(yù)測時(shí)間的比較。

SIMP方法生成的高分辨率結(jié)構(gòu)和三種生成對(duì)抗網(wǎng)絡(luò)模型生成的高分辨率優(yōu)化結(jié)構(gòu)的比較,如表1所示(表中的例子為從測試集中隨機(jī)選取的5個(gè)樣本)。并在預(yù)測結(jié)果的下方依次展示了每個(gè)結(jié)果所對(duì)應(yīng)的像素點(diǎn)準(zhǔn)確率、預(yù)測時(shí)間和體積分?jǐn)?shù)。結(jié)果表明,三種網(wǎng)絡(luò)生成高分辨率結(jié)構(gòu)的清晰度均十分理想,設(shè)計(jì)域的材料分布細(xì)節(jié)還原充分,生成對(duì)抗網(wǎng)絡(luò)在模擬SIMP的優(yōu)化過程中有著很好的性能。通過式(6)計(jì)算三種網(wǎng)絡(luò)預(yù)測結(jié)果的Acc與SIMP法相比,本文所提出的兩種方法大幅提高了獲得二維高分辨率優(yōu)化結(jié)構(gòu)的時(shí)間,同時(shí)Acc值均在95%以上,且預(yù)測結(jié)構(gòu)的體積分?jǐn)?shù)與SIMP法獲得的高分辨率結(jié)構(gòu)的體積分?jǐn)?shù)十分接近。這表明隨著不斷地更新迭代,生成對(duì)抗網(wǎng)絡(luò)可學(xué)習(xí)到合適的網(wǎng)絡(luò)參數(shù)用來表征拓?fù)鋬?yōu)化內(nèi)部的先驗(yàn)知識(shí)。

表1 二維結(jié)構(gòu)在不同生成對(duì)抗網(wǎng)絡(luò)下的預(yù)測結(jié)果比較Tab.1 Comparison of prediction results of two-dimensional structures under different generative adversarial networks

其次,將本文三種網(wǎng)絡(luò)所得結(jié)果的評(píng)價(jià)指標(biāo)進(jìn)行對(duì)比。由于Esrgan網(wǎng)絡(luò)較多關(guān)注圖像感知質(zhì)量上的提高,并加入了感知損失和對(duì)抗損失來提升重建圖像的真實(shí)感,因此,相對(duì)于CGAN和Pix2pix網(wǎng)絡(luò),其評(píng)價(jià)指標(biāo)Acc和預(yù)測時(shí)間均有所提升,且預(yù)測結(jié)構(gòu)的體積分?jǐn)?shù)更為接近真實(shí)結(jié)構(gòu),即 Esrgan網(wǎng)絡(luò)具有更優(yōu)的綜合性能。

(6)

2.2.3 二維預(yù)測結(jié)構(gòu)的柔順度對(duì)比

對(duì)三種網(wǎng)絡(luò)生成的二維高分辨率結(jié)構(gòu)的柔度值與基于SIMP法生成的二維高分辨率結(jié)構(gòu)的柔順度進(jìn)行了對(duì)比,如表2所示。利用式(7)計(jì)算得出本文方法相較于SIMP法的柔順度準(zhǔn)確率,其中,ObjPred為預(yù)測結(jié)構(gòu)的柔順度,ObjTrue為真實(shí)樣本結(jié)構(gòu)的柔順度。由表2可知,由生成對(duì)抗網(wǎng)絡(luò)預(yù)測的高分辨率優(yōu)化結(jié)構(gòu)的柔順度與SIMP法獲得的高分辨率結(jié)構(gòu)的柔順度是接近的,代表生成對(duì)抗網(wǎng)絡(luò)生成的二維高分辨率結(jié)構(gòu)是可靠的,證明了本文所提方法的有效性。

Esrgan網(wǎng)絡(luò)的生成器刪掉所有BN層并引入具有更大容量和更易訓(xùn)練的RRDB,結(jié)合了多層殘差網(wǎng)絡(luò)和密集連接;同時(shí),判別器使用了激活前特征,增強(qiáng)了感知損失,這些特征可提供更強(qiáng)的監(jiān)督,從而使該網(wǎng)絡(luò)的預(yù)測結(jié)果具有更精確的邊界信息和圖像紋理。因此:由表2可知,Esrgan網(wǎng)絡(luò)預(yù)測所得高分辨率結(jié)構(gòu)的柔順度準(zhǔn)確率最高,且與目標(biāo)柔順度(SIMP法生成的高分辨率拓?fù)浣Y(jié)構(gòu))最為接近。

(7)

2.3 三維算例結(jié)果

2.3.1 三維模型的可行性與計(jì)算成本對(duì)比

將文中使用的生成對(duì)抗網(wǎng)絡(luò)擴(kuò)展至三維拓?fù)浣Y(jié)構(gòu)的預(yù)測。將網(wǎng)絡(luò)模型從二維擴(kuò)展到三維的最顯著差異是輸入信息和輸出結(jié)構(gòu)的維度,對(duì)二維拓?fù)浣Y(jié)構(gòu)預(yù)測僅需要三個(gè)通道(體積分?jǐn)?shù)、載荷大小、初始位移),而對(duì)三維結(jié)構(gòu)進(jìn)行預(yù)測,考慮厚度方向的特征則需要15個(gè)通道(見2.1節(jié))。

用測試集數(shù)據(jù)對(duì)訓(xùn)練好的網(wǎng)絡(luò)模型的性能(計(jì)算效率及精度)進(jìn)行評(píng)估,模型的精度包括像素點(diǎn)準(zhǔn)確率、柔順度和體積分?jǐn)?shù)。本節(jié)給出了兩組SIMP方法生成的高分辨率結(jié)構(gòu)和三種生成對(duì)抗網(wǎng)絡(luò)模型生成的高分辨率優(yōu)化結(jié)構(gòu)。如表3所示,生成對(duì)抗網(wǎng)絡(luò)模型生成的三維高分辨率結(jié)構(gòu)與SIMP方法的結(jié)果幾乎一樣。但SIMP法的平均計(jì)算時(shí)間為460.659 s,而本文提出兩種方法的平均時(shí)間約為0.4 s,大幅降低了獲得三維結(jié)構(gòu)的時(shí)間成本。值得注意的是,基于深度學(xué)習(xí)方法的計(jì)算時(shí)間不包括生成數(shù)據(jù)集的時(shí)間(生成7 680個(gè)樣本需45 h)和訓(xùn)練網(wǎng)絡(luò)的時(shí)間(2 h),因?yàn)閿?shù)據(jù)準(zhǔn)備和模型訓(xùn)練僅為一次離線成本,而訓(xùn)練后的模型可用來解決多種類似的拓?fù)鋬?yōu)化問題。此外,通過式(8)計(jì)算得出三維結(jié)構(gòu)的像素點(diǎn)準(zhǔn)確率,并展示在預(yù)測結(jié)果的下方。由生成對(duì)抗網(wǎng)絡(luò)預(yù)測得到的生成的三維高分辨率構(gòu)型均具有良好的像素點(diǎn)準(zhǔn)確率值。由表3可知,由生成對(duì)抗網(wǎng)絡(luò)預(yù)測的高分辨率拓?fù)鋬?yōu)化結(jié)構(gòu)的體積分?jǐn)?shù)均在由SIMP法計(jì)算得到的拓?fù)鋬?yōu)化結(jié)構(gòu)的體積分?jǐn)?shù)附近波動(dòng)。綜上所述,本文提出的基于生成對(duì)抗網(wǎng)絡(luò)的拓?fù)鋬?yōu)化方法能在保證結(jié)果高準(zhǔn)確性的情況下,高效地生成高分辨率優(yōu)化結(jié)構(gòu)。

表3 三維結(jié)構(gòu)在不同生成對(duì)抗網(wǎng)絡(luò)下的預(yù)測結(jié)果比較Tab.3 Comparison of prediction results of three-dimensional structures under different generative adversarial networks

由表3還可知,由生成對(duì)抗網(wǎng)絡(luò)預(yù)測的三維高分辨率優(yōu)化結(jié)構(gòu)的柔順度與體積分?jǐn)?shù)均接近基于SIMP法獲得的高分辨率優(yōu)化結(jié)構(gòu),證明了基于生成對(duì)抗網(wǎng)絡(luò)的三維拓?fù)鋬?yōu)化方法的有效性。

(8)

2.3.2 三維模型預(yù)測結(jié)構(gòu)的性能對(duì)比

兩組數(shù)據(jù)對(duì)應(yīng)的柔順度和體積分?jǐn)?shù)準(zhǔn)確率,如表4所示,通過式(7)計(jì)算得出表中展示的兩組算例的柔順度準(zhǔn)確率均大于92%。由于Esrgan網(wǎng)絡(luò)的判別器可預(yù)測圖像的相對(duì)真實(shí)性,且使用激活函數(shù)之前的所學(xué)特征,可提供對(duì)亮度一致性和紋理恢復(fù)更強(qiáng)的監(jiān)督力,提高生成圖片的視覺質(zhì)量。綜合分析表3與表4可得,Esrgan網(wǎng)絡(luò)預(yù)測得到的高分辨率優(yōu)化結(jié)構(gòu)的柔順度、體積分?jǐn)?shù)和像素點(diǎn)準(zhǔn)確率均高于Pix2pix網(wǎng)絡(luò)和CGAN網(wǎng)絡(luò)。

表4 三維結(jié)構(gòu)在不同生成對(duì)抗網(wǎng)絡(luò)下的柔順度與體積分?jǐn)?shù)準(zhǔn)確率結(jié)果比較

3 結(jié) 論

(1) 本文基于Pix2pix和Esrgan提出了兩種基于生成對(duì)抗網(wǎng)絡(luò)的拓?fù)鋬?yōu)化方法,并擴(kuò)展至三維結(jié)構(gòu),實(shí)現(xiàn)了對(duì)結(jié)構(gòu)系統(tǒng)的高效跨分辨率拓?fù)鋬?yōu)化設(shè)計(jì)。與傳統(tǒng)拓?fù)鋬?yōu)化方法相比,本文所提出的兩種方法能夠在極短的時(shí)間內(nèi)得到高分辨率優(yōu)化結(jié)構(gòu),而無需進(jìn)行任何迭代分析,且準(zhǔn)確率可達(dá)94%以上,為高精度和高效率拓?fù)鋬?yōu)化設(shè)計(jì)提供了理論參考,體現(xiàn)了所提方法的有效性。

(2) 相較于基于CGAN的拓?fù)鋬?yōu)化方法,本文所改進(jìn)的Pix2pix網(wǎng)絡(luò)和引入的Esrgan網(wǎng)絡(luò)的預(yù)測結(jié)果在效率和精度方面均有提高。對(duì)于Pix2pix網(wǎng)絡(luò),本文使用殘差模塊替代U-Net網(wǎng)絡(luò)內(nèi)部的卷積模塊,保證了信息在傳遞過程中的完整性,增強(qiáng)了Pix2pix網(wǎng)絡(luò)的特征學(xué)習(xí)能力和生成圖像的精度;而Esrgan網(wǎng)絡(luò)的生成器使用RRDB模塊,提升了網(wǎng)絡(luò)的深度與容量,且由于去除了BN層,增強(qiáng)了網(wǎng)絡(luò)的穩(wěn)定性。

(3) Esrgan網(wǎng)絡(luò)所得預(yù)測結(jié)果的效率和精度均優(yōu)于Pix2pix。相較于Pix2pix網(wǎng)絡(luò),Esrgan網(wǎng)絡(luò)生成器中包含密集塊與多級(jí)殘差結(jié)構(gòu),加強(qiáng)了特征圖在各個(gè)層中的復(fù)用,并有效提高網(wǎng)絡(luò)的泛化能力。

猜你喜歡
高分辨率分辨率損失
少問一句,損失千金
胖胖損失了多少元
高分辨率合成孔徑雷達(dá)圖像解譯系統(tǒng)
EM算法的參數(shù)分辨率
玉米抽穗前倒伏怎么辦?怎么減少損失?
原生VS最大那些混淆視聽的“分辨率”概念
基于深度特征學(xué)習(xí)的圖像超分辨率重建
一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
一般自由碰撞的最大動(dòng)能損失
高分辨率對(duì)地觀測系統(tǒng)
太空探索(2015年8期)2015-07-18 11:04:44
安徽省| 宜宾市| 仪征市| 巫山县| 恩施市| 裕民县| 镇坪县| 绥江县| 抚宁县| 雅安市| 榆中县| 清河县| 河南省| 邻水| 浏阳市| 修文县| 双城市| 濮阳县| 常宁市| 阜南县| 武穴市| 沛县| 中宁县| 南漳县| 浦江县| 孙吴县| 文化| 德庆县| 台安县| 晴隆县| 双鸭山市| 客服| 阜南县| 略阳县| 东至县| 晴隆县| 城固县| 冀州市| 津南区| 娄烦县| 于田县|