(北京工業(yè)大學(xué) 材料與制造學(xué)部,北京 100124)
拓?fù)鋬?yōu)化是指在給定邊界條件下,確定設(shè)計(jì)域內(nèi)材料的最優(yōu)分布,從而在滿(mǎn)足約束的情況下使結(jié)構(gòu)性能達(dá)到最佳的一種設(shè)計(jì)方法。相比尺寸和形狀優(yōu)化,拓?fù)鋬?yōu)化設(shè)計(jì)具備更多的設(shè)計(jì)自由度,在工業(yè)領(lǐng)域應(yīng)用潛力更大,公認(rèn)其為結(jié)構(gòu)優(yōu)化設(shè)計(jì)中的熱點(diǎn)與難點(diǎn)問(wèn)題。傳統(tǒng)拓?fù)鋬?yōu)化設(shè)計(jì)方法主要包含均勻化方法(Homogenization Method)[1,2]、變厚度法[3]、變密度法SIMP(Solid Isotropic Material with Penalization)[4,5]、漸進(jìn)結(jié)構(gòu)優(yōu)化法ESO(Evolutionary Structural Optimization method)[6,7]、水平集法(Level Set method)[8]、移動(dòng)組件法MMC(Moving Morphable Component)[9]和獨(dú)立連續(xù)映射法ICM(Independent Continuous Mapping Method)[10,11]等。
傳統(tǒng)拓?fù)鋬?yōu)化方法可以根據(jù)約束條件和優(yōu)化目標(biāo)等來(lái)設(shè)計(jì)結(jié)構(gòu)優(yōu)化構(gòu)型,使結(jié)構(gòu)滿(mǎn)足設(shè)計(jì)需要。但是,隨著結(jié)構(gòu)單元數(shù)量增加,拓?fù)鋬?yōu)化消耗的時(shí)間成本顯著增加,這使得精細(xì)化拓?fù)鋬?yōu)化設(shè)計(jì)受到了限制。利用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等智能算法減少傳統(tǒng)方法的計(jì)算時(shí)間,提高拓?fù)鋬?yōu)化效率成為當(dāng)前結(jié)構(gòu)拓?fù)鋬?yōu)化研究的熱點(diǎn)之一。
相比機(jī)器學(xué)習(xí)算法,深度學(xué)習(xí)算法擁有更多的網(wǎng)絡(luò)層數(shù),通過(guò)對(duì)數(shù)據(jù)的反復(fù)學(xué)習(xí),可以建立輸入和輸出數(shù)據(jù)之間的高維映射。這種隱式映射關(guān)系計(jì)算效率高且泛化能力強(qiáng),將深度學(xué)習(xí)算法和傳統(tǒng)拓?fù)鋬?yōu)化方法相結(jié)合,實(shí)現(xiàn)精細(xì)、高效和智能的拓?fù)鋬?yōu)化受到國(guó)內(nèi)外學(xué)者的廣泛關(guān)注。利用深度學(xué)習(xí)加速拓?fù)鋬?yōu)化設(shè)計(jì)可以分為同分辨率和跨分辨率拓?fù)鋬?yōu)化設(shè)計(jì)。
同分辨率拓?fù)鋬?yōu)化設(shè)計(jì)是指在訓(xùn)練深度學(xué)習(xí)模型中,輸入數(shù)據(jù)和輸出數(shù)據(jù)保持相同維度,即利用深度學(xué)習(xí)算法代替迭代計(jì)算過(guò)程,實(shí)現(xiàn)對(duì)拓?fù)鋬?yōu)化的加速設(shè)計(jì)。Sosnovik等[12]利用中間構(gòu)型作為輸入,使用U-net網(wǎng)絡(luò)模型建立中間構(gòu)型和優(yōu)化構(gòu)型的映射關(guān)系,實(shí)現(xiàn)對(duì)SIMP方法的加速設(shè)計(jì)。Lin等[13]利用相似方法解決了傳熱結(jié)構(gòu)拓?fù)鋬?yōu)化設(shè)計(jì)問(wèn)題。Nikos等[14]將深度置信網(wǎng)絡(luò)(deep belief network)嵌入SIMP方法中,網(wǎng)絡(luò)計(jì)算的結(jié)果再導(dǎo)入SIMP方法,進(jìn)行最終優(yōu)化,提高了計(jì)算的精度。同分辨率拓?fù)鋬?yōu)化方法在一定程度上提高了優(yōu)化計(jì)算效率,但是未能實(shí)現(xiàn)結(jié)構(gòu)的精細(xì)化設(shè)計(jì)。
為了進(jìn)一步精細(xì)化拓?fù)錁?gòu)型,提出跨分辨率拓?fù)鋬?yōu)化設(shè)計(jì)??绶直媛释?fù)鋬?yōu)化設(shè)計(jì)是利用低分辨率邊界條件作為輸入,借助深度學(xué)習(xí)模型,實(shí)現(xiàn)高分辨率結(jié)構(gòu)的設(shè)計(jì)。Yu等[15]利用卷積自編碼網(wǎng)絡(luò)和生成對(duì)抗式神經(jīng)網(wǎng)絡(luò)的組合,完成跨分辨率設(shè)計(jì)。其中,卷積自編碼網(wǎng)絡(luò)實(shí)現(xiàn)同分辨率拓?fù)錁?gòu)型預(yù)測(cè),生成對(duì)抗式網(wǎng)絡(luò)完成結(jié)構(gòu)精細(xì)化設(shè)計(jì)。Li等[16]改變網(wǎng)絡(luò)組成,利用生成對(duì)抗式網(wǎng)絡(luò)生成同分辨率的優(yōu)化構(gòu)型,進(jìn)而利用超分辨率生成對(duì)抗式網(wǎng)絡(luò)完成高分辨率結(jié)構(gòu)設(shè)計(jì)。跨分辨率拓?fù)鋬?yōu)化設(shè)計(jì)方法不僅提高了傳統(tǒng)拓?fù)鋬?yōu)化設(shè)計(jì)效率,而且提高了優(yōu)化構(gòu)型設(shè)計(jì)精度。但是多網(wǎng)絡(luò)耦合的方法提高了數(shù)據(jù)集制作和網(wǎng)絡(luò)搭建的復(fù)雜度,并且網(wǎng)絡(luò)預(yù)測(cè)結(jié)構(gòu)的誤差會(huì)疊加。
為了克服多網(wǎng)絡(luò)帶來(lái)的設(shè)計(jì)問(wèn)題,本文基于CGAN(Conditional Generative and Adversarial Network)設(shè)計(jì)單一網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)跨精度結(jié)構(gòu)拓?fù)鋬?yōu)化設(shè)計(jì)。利用ICM方法建立數(shù)據(jù)集,訓(xùn)練網(wǎng)絡(luò)模型。該方法避免組合網(wǎng)絡(luò)訓(xùn)練的復(fù)雜性,且保證了生成結(jié)構(gòu)的精確度。研究結(jié)果產(chǎn)生了一種新的網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用于結(jié)構(gòu)拓?fù)鋬?yōu)化的加速設(shè)計(jì),使精細(xì)化拓?fù)鋬?yōu)化設(shè)計(jì)更加高效和智能。
ICM方法提出了獨(dú)立連續(xù)拓?fù)渥兞康母拍詈酮?dú)立連續(xù)映射方法,將拓?fù)渥兞繌牟牧虾兔娣e厚度等尺寸優(yōu)化或形狀優(yōu)化的變量中抽取出來(lái),用獨(dú)立于單元具體物理參數(shù)的變量來(lái)表征單元的有和無(wú),利于拓?fù)鋬?yōu)化模型的建立。同時(shí)引入過(guò)濾函數(shù),進(jìn)行參數(shù)識(shí)別和設(shè)計(jì)變量的離散。ICM方法適合任何目標(biāo)函數(shù),但通常以結(jié)構(gòu)的輕量化作為目標(biāo)函數(shù),將力學(xué)響應(yīng)量或特征參數(shù)等作為約束條件,利用對(duì)偶序列二次規(guī)劃方法進(jìn)行優(yōu)化模型求解,減少了約束數(shù)目,降低了求解規(guī)模?;谏鲜隼碚?,其數(shù)學(xué)模型可以表示為
(1)
在拓?fù)鋬?yōu)化模型中,目標(biāo)函數(shù)和約束條件均為包含拓?fù)渥兞康碾[式函數(shù),求解計(jì)算比較復(fù)雜。將優(yōu)化模型(1)的約束條件和目標(biāo)函數(shù)進(jìn)行一階和二階泰勒展開(kāi),其表達(dá)式為
(2)
(j=0,…,J) (3)
將式(2,3)代入式(1),優(yōu)化模型轉(zhuǎn)化為
(4)
由于優(yōu)化結(jié)果不受常數(shù)項(xiàng)的影響,所以在求解過(guò)程中省略目標(biāo)函數(shù)的常數(shù)項(xiàng)。模型中,拓?fù)鋬?yōu)化方程的系數(shù)分別為
(5)
為了減少計(jì)算規(guī)模并提高模型計(jì)算效率,引入對(duì)偶理論將二次規(guī)劃模型轉(zhuǎn)化為對(duì)偶模型,針對(duì)建立的二次規(guī)劃模型(4),其對(duì)偶模型可以表示為
(6)
(7)
對(duì)于拓?fù)鋬?yōu)化模型(4),其設(shè)計(jì)變量和目標(biāo)函數(shù)需要滿(mǎn)足的約束條件為
‖x(κ + 1)-x(κ )‖/‖x(κ )‖≤ε1
(8)
ΔO=|(O(κ + 1)-Oκ)/Oκ|≤ε2
(9)
式中ε1和ε2為設(shè)計(jì)變量和目標(biāo)函數(shù)需要滿(mǎn)足的收斂精度。迭代完成后,將連續(xù)的拓?fù)渥兞窟M(jìn)行離散化,實(shí)現(xiàn)從連續(xù)模型到離散模型的轉(zhuǎn)化。
為說(shuō)明ICM方法與深度學(xué)習(xí)理論的結(jié)合,本文建立了以結(jié)構(gòu)質(zhì)量最小為優(yōu)化目標(biāo),以結(jié)構(gòu)允許位移為約束的拓?fù)鋬?yōu)化設(shè)計(jì)模型。
(10)
(11)
由莫爾定理,在指定方向上結(jié)構(gòu)在任意單元節(jié)點(diǎn)的廣義位移為
(12)
(13)
根據(jù)整體剛度矩陣方程,式(13)可以轉(zhuǎn)化為
(14)
式中ki為i單元的剛度矩陣。針對(duì)各向同性材料,設(shè)計(jì)變量和位移約束關(guān)系的顯式化為
(15)
式中cj i為位移約束方程系數(shù),其表達(dá)式為
(16)
將式(16)代入式(10),得到位移約束下的數(shù)學(xué)模型為
(17)
利用2.1節(jié)的理論對(duì)拓?fù)鋬?yōu)化模型(17)進(jìn)行模型求解,實(shí)現(xiàn)位移約束下結(jié)構(gòu)的拓?fù)鋬?yōu)化設(shè)計(jì)。
利用上述理論,以短懸臂梁為基結(jié)構(gòu),寬高均為1 m。材料的弾性模型為1 GPa,泊松比為0.3。分別對(duì)其進(jìn)行32×32和64×64的單元?jiǎng)澐?,?duì)應(yīng)低分辨率結(jié)構(gòu)優(yōu)化設(shè)計(jì)和高分辨率結(jié)構(gòu)優(yōu)化設(shè)計(jì)。位移約束值均設(shè)置為57.3 mm。利用基于ICM方法的位移約束拓?fù)鋬?yōu)化程序[17]完成結(jié)構(gòu)優(yōu)化設(shè)計(jì)。
通過(guò)優(yōu)化計(jì)算,分別獲得了不同分辨率下的拓?fù)錁?gòu)型,列入表1。當(dāng)單元數(shù)M=32時(shí),優(yōu)化構(gòu)型的邊緣表現(xiàn)出明顯的鋸齒結(jié)構(gòu);單元數(shù)M=64時(shí),結(jié)構(gòu)進(jìn)一步細(xì)化,鋸齒邊緣明顯減輕,優(yōu)化構(gòu)型質(zhì)量更高。
表1 ICM方法優(yōu)化構(gòu)型
理想情況下,單元?jiǎng)澐衷骄?xì),優(yōu)化結(jié)構(gòu)也會(huì)更加準(zhǔn)確。兩種單元數(shù)量下優(yōu)化計(jì)算的時(shí)間如圖1所示,當(dāng)M=32時(shí),迭代計(jì)算時(shí)間為3.96 s;M=64時(shí),迭代計(jì)算消耗的時(shí)間為28.73 s??梢?jiàn),隨著單元數(shù)目的進(jìn)一步擴(kuò)大,消耗的時(shí)間呈指數(shù)型增加。
圖1 不同單元數(shù)量所消耗的計(jì)算時(shí)間
ICM方法消耗的時(shí)間主要在于每次迭代計(jì)算都要進(jìn)行有限元分析,并且隨著單元數(shù)增加,有限元分析消耗的時(shí)間也隨之增加,導(dǎo)致計(jì)算效率低下。為了減少I(mǎi)CM方法在迭代過(guò)程中消耗的時(shí)間,提高ICM方法計(jì)算效率,引入CGAN深度學(xué)習(xí)算法,代替?zhèn)鹘y(tǒng)計(jì)算過(guò)程中部分迭代步數(shù),并實(shí)現(xiàn)由低分辨率到高分辨率的跨精度加速設(shè)計(jì)。
為了實(shí)現(xiàn)跨精度拓?fù)鋬?yōu)化加速設(shè)計(jì),將CGAN網(wǎng)絡(luò)引入到拓?fù)鋬?yōu)化設(shè)計(jì)過(guò)程。CGAN網(wǎng)絡(luò)模型屬于無(wú)監(jiān)督學(xué)習(xí),在結(jié)構(gòu)上由生成器和判別器組成。生成器利用輸入的低分辨率中間構(gòu)型為條件預(yù)測(cè)高分辨率構(gòu)型;判別器通過(guò)判斷生成器預(yù)測(cè)的構(gòu)型和優(yōu)化構(gòu)型是否一致,實(shí)現(xiàn)對(duì)生成器的動(dòng)態(tài)訓(xùn)練。當(dāng)判別器無(wú)法區(qū)分預(yù)測(cè)構(gòu)型和優(yōu)化構(gòu)型時(shí),生成器模型訓(xùn)練完成,實(shí)現(xiàn)跨分辨率優(yōu)化設(shè)計(jì)。
生成器網(wǎng)絡(luò)模型主要由卷積層和反卷積層組成,卷積層主要通過(guò)卷積核提取低分辨率中間構(gòu)型的重要特征,實(shí)現(xiàn)維度降低。反卷積層是利用卷積層提取特征數(shù)據(jù),利用反卷積計(jì)算進(jìn)行特征重組和結(jié)構(gòu)重建,以達(dá)到結(jié)構(gòu)預(yù)測(cè)目的。為了實(shí)現(xiàn)跨分辨率結(jié)構(gòu)預(yù)測(cè),反卷積層輸出維度為卷積層輸入維度的4倍。
如圖2所示,生成器輸入為32×32像素圖片,這與低分辨率構(gòu)型維度一致。隨著卷積網(wǎng)絡(luò)層數(shù)增加,特征層維數(shù)依次為32-32-16-8-4-2-1。隨著特征層維數(shù)的減小,特征層層數(shù)不斷增加,依次為64-64-128-256-512-512-512。這些低維特征層,將作為優(yōu)化構(gòu)型重構(gòu)重要特征。與卷積層結(jié)構(gòu)相反,反卷積層特征維數(shù)不斷增加,其變化規(guī)律為1-2-4-8-16-32-32;特征層層數(shù)為1024-1024-1024-1024-512-256-128。反卷積層和卷積層之間存在跳躍連接,所以反卷積層中,特征層數(shù)是對(duì)應(yīng)卷積層數(shù)的兩倍。跳躍連接使卷積層中的信息直接傳遞給反卷積層。這種傳遞使得反卷積層獲得更多的特征信息,在一定程度上提高了預(yù)測(cè)構(gòu)型的精度。在反卷積計(jì)算之后,還跟隨著三個(gè)卷積層,用于提高預(yù)測(cè)結(jié)構(gòu)維度。
圖2 生成器網(wǎng)絡(luò)結(jié)構(gòu)
判別器主要由卷積層組成,基于one-hot編碼,對(duì)生成器生成的結(jié)構(gòu)進(jìn)行評(píng)估。如圖3所示,判別器由六個(gè)卷積層構(gòu)成,這些卷積層用來(lái)提取優(yōu)化構(gòu)型和預(yù)測(cè)構(gòu)型的特征,并輸出對(duì)應(yīng)的概率,而后反向訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)。前五層卷積計(jì)算中都緊跟著正則化層和激活函數(shù)層(Leaky ReLU),Leaky ReLU激活函數(shù)使得負(fù)半軸信息不會(huì)完全丟失,提高了網(wǎng)絡(luò)魯棒性。 最后的一個(gè)卷積層后不再使用正則化層,并且使用Sigmoid函數(shù)作為激活函數(shù)。
圖3 判別器網(wǎng)絡(luò)結(jié)構(gòu)
在CGAN模型訓(xùn)練過(guò)程中,主要包含生成器損失和監(jiān)視器損失,這些損失用于計(jì)算生成器和判別器的誤差,利用反向傳播算法優(yōu)化權(quán)重。
生成器損失是用來(lái)提高監(jiān)視器對(duì)預(yù)測(cè)構(gòu)型的評(píng)估概率,其由交叉熵?fù)p失(BCE loss)和平均絕對(duì)損失(MAE)兩部分組成。 交叉熵?fù)p失函數(shù)可以表示為
(18)
絕對(duì)損失函數(shù)是用來(lái)衡量預(yù)測(cè)構(gòu)型和優(yōu)化構(gòu)型的差異,其公式為
(19)
式中y為優(yōu)化構(gòu)型。所以,生成器的整體損失為
(20)
式中λ為常系數(shù),一般取值為100。
判別器損失是一個(gè)標(biāo)準(zhǔn)的二分類(lèi)交叉熵?fù)p失函數(shù),其公式為
(21)
模型完成訓(xùn)練后,將預(yù)訓(xùn)練模型用來(lái)預(yù)測(cè)高分辨率優(yōu)化構(gòu)型。引入感知哈希算法(Perceptual hashing algorithm),用于評(píng)估預(yù)測(cè)構(gòu)型和優(yōu)化構(gòu)型的相似度。首先,將預(yù)測(cè)構(gòu)型和優(yōu)化構(gòu)型中所有像素的灰度值進(jìn)行均值計(jì)算,獲得灰度均值(Havg), 其公式為
(22)
式中Pi j為灰度圖的像素值。然后,將圖中所有的像素值與均值作比較,如果大于均值,哈希值為1,相反,哈希值為0,其公式為
(23)
式中Hi j為哈希值。兩個(gè)結(jié)構(gòu)的相似度計(jì)算結(jié)果可表示為
(24)
跨分辨率拓?fù)鋬?yōu)化加速設(shè)計(jì)方法是利用ICM方法和CGAN網(wǎng)絡(luò)組合形成的耦合算法。首先,利用ICM方法建立拓?fù)鋬?yōu)化數(shù)據(jù)集,數(shù)據(jù)集包含初始低分辨率中間構(gòu)型和高分辨率優(yōu)化構(gòu)型;其次,搭建基于CGAN的深度學(xué)習(xí)模型,在數(shù)據(jù)樣本訓(xùn)練下,獲得預(yù)訓(xùn)練的網(wǎng)絡(luò)模型;最后,將低分辨率中間構(gòu)型輸入預(yù)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)直接生成優(yōu)化結(jié)構(gòu),完成優(yōu)化設(shè)計(jì)。圖4展示了利用CGAN模型進(jìn)行跨分辨率加速設(shè)計(jì)的流程。
圖4 耦合算法流程
通過(guò)利用基于ICM方法的位移約束輕量化拓?fù)鋬?yōu)化計(jì)算程序,得到1000個(gè)低分辨率的中間構(gòu)型和對(duì)應(yīng)的高分辨率優(yōu)化構(gòu)型,二者組成含有1000個(gè)樣本的數(shù)據(jù)集。數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,其比率為7:3。對(duì)CGAN模型超參數(shù)進(jìn)行設(shè)定,生成器和判別器模型的學(xué)習(xí)率均為0.0001,小批量數(shù)據(jù)設(shè)置為2,總世代循環(huán)次數(shù)Epoch=200,訓(xùn)練模型所使用的優(yōu)化器均為ADAM優(yōu)化器。
經(jīng)過(guò)數(shù)據(jù)集準(zhǔn)備和模型配置,網(wǎng)絡(luò)模型完成訓(xùn)練過(guò)程。圖5展示了網(wǎng)絡(luò)的損失變化趨勢(shì)和預(yù)測(cè)構(gòu)型的精度趨勢(shì)。當(dāng)Epoch≤25時(shí),網(wǎng)絡(luò)整體損失快速下降;當(dāng)Epoch>25時(shí),網(wǎng)絡(luò)的損失趨于穩(wěn)定;損失曲線(xiàn)表明網(wǎng)絡(luò)結(jié)構(gòu)具有良好的收斂性。訓(xùn)練過(guò)程利用感知哈希算法對(duì)網(wǎng)絡(luò)預(yù)測(cè)構(gòu)型進(jìn)行評(píng)估。當(dāng)Epoch≤40時(shí),預(yù)測(cè)結(jié)構(gòu)與優(yōu)化構(gòu)型的相似度迅速增加;當(dāng)Epoch>40時(shí),逐漸趨于穩(wěn)定。表2展示了不同訓(xùn)練階段下,對(duì)跨分辨率結(jié)構(gòu)的預(yù)測(cè)結(jié)果。從構(gòu)型結(jié)構(gòu)上分析,當(dāng)Epoch=0時(shí),網(wǎng)絡(luò)為初始化權(quán)重,所以生成的結(jié)構(gòu)為隨機(jī)噪音;當(dāng)Epoch<40時(shí),網(wǎng)絡(luò)損失快速收斂,預(yù)測(cè)的構(gòu)型也趨于目標(biāo)構(gòu)型;當(dāng)Epoch≥40時(shí),預(yù)測(cè)構(gòu)型與目標(biāo)構(gòu)型已經(jīng)非常相似。訓(xùn)練過(guò)程中預(yù)測(cè)構(gòu)型、相似度和網(wǎng)絡(luò)損失曲線(xiàn)的趨勢(shì)基本保持一致。
圖5 網(wǎng)絡(luò)的損失曲線(xiàn)
針對(duì)預(yù)訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu),選取50個(gè)隨機(jī)低分辨率中間構(gòu)型來(lái)測(cè)試網(wǎng)絡(luò)性能。這些中間構(gòu)型獨(dú)立于訓(xùn)練集和測(cè)試集。將這些迭代計(jì)算一次構(gòu)型輸入到網(wǎng)絡(luò)中,網(wǎng)絡(luò)計(jì)算消耗時(shí)間非常微小,平均時(shí)間為0.005 s。如表2所示,根據(jù)不同中間構(gòu)型,網(wǎng)絡(luò)預(yù)測(cè)出跨精度優(yōu)化構(gòu)型,預(yù)測(cè)構(gòu)型和優(yōu)化構(gòu)型差異非常微小。
表2 訓(xùn)練過(guò)程中的預(yù)測(cè)構(gòu)型Tab.2 Predicted configurations in the training process
網(wǎng)絡(luò)加速設(shè)計(jì)的預(yù)測(cè)構(gòu)型相似度和計(jì)算時(shí)間可以進(jìn)一步評(píng)估。針對(duì)表3的預(yù)測(cè)構(gòu)型,其結(jié)構(gòu)相似度和計(jì)算時(shí)間列入表4。可以看出,利用CGAN網(wǎng)絡(luò)預(yù)測(cè)的優(yōu)化構(gòu)型,其平均精度為 95.20%。在保證構(gòu)型精度的前提下,利用網(wǎng)絡(luò)加速實(shí)現(xiàn)高分辨率構(gòu)型預(yù)測(cè)消耗的平均時(shí)間為0.071 s,其中包含了ICM方法迭代計(jì)算一次的時(shí)間和深度學(xué)習(xí)網(wǎng)絡(luò)計(jì)算的時(shí)間。在計(jì)算效率上,跨分辨率方法使用時(shí)間不足ICM方法的1%。仿真結(jié)果表明,利用CGAN網(wǎng)絡(luò)可以高效準(zhǔn)確地完成高精度優(yōu)化構(gòu)型的計(jì)算,提高了ICM方法的計(jì)算效率。
表3 利用網(wǎng)絡(luò)預(yù)測(cè)優(yōu)化構(gòu)型
表4 計(jì)算時(shí)間和精度分析
本文提出了一種基于CGAN網(wǎng)絡(luò)的深度學(xué)習(xí)模型實(shí)現(xiàn)跨精度拓?fù)鋬?yōu)化加速設(shè)計(jì)的方法。利用ICM方法建立的位移約束拓?fù)鋬?yōu)化模型獲得了跨分辨率數(shù)據(jù)集,利用數(shù)據(jù)集訓(xùn)練CGAN網(wǎng)絡(luò),獲得了預(yù)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)跨分辨率拓?fù)錁?gòu)型的預(yù)測(cè)。數(shù)值算例仿真結(jié)果表明,在保證結(jié)構(gòu)精度前提下,利用深度學(xué)習(xí)網(wǎng)絡(luò)可以大幅提高拓?fù)鋬?yōu)化計(jì)算效率。該研究方法為高精度和高效率拓?fù)鋬?yōu)化設(shè)計(jì)提供了一種參考。此外,將傳統(tǒng)拓?fù)鋬?yōu)化與深度學(xué)習(xí)相結(jié)合的思路,對(duì)于不同約束條件和不同結(jié)構(gòu)類(lèi)型的拓?fù)鋬?yōu)化問(wèn)題同樣適用。
參考文獻(xiàn)(References):
[1] Hassani B,Hinton E.A review of homogenization and topology optimization II—Analytical and numerical solution of homogenization equations[J].Computers&Structures,1998,69(6):719-738.
[2] Hassani B,Hinton E.A review of homogenization and topology optimization III—Topology optimization using optimality criteria[J].Computers&Structures,1998,69(6):739-756.
[3] 王 健,程耿東.應(yīng)力約束下薄板結(jié)構(gòu)的拓?fù)鋬?yōu)化[J].固體力學(xué)學(xué)報(bào),1997,18(4):37-42.(WANG Jian,CHENG Geng-dong.Optimal topology design of thin plate with stress constraints[J].ActaMechanicaSolidaSinica,1997,18(4):37-42.(in Chinese))
[4] Sigmund O.A 99 line topology optimization code written in Matlab[J].StructuralandMultidisciplinaryOptimization,2001,21(2):120-127.
[5] Andreassen E,Clausen A,Schevenels M,et al.Efficient topology optimization in MATLAB using 88 lines of code[J].StructuralandMultidisciplinaryOptimization,2011,43(1):1-16.
[6] Xia L,Zhang L,Xia Q,et al.Stress-based topolo -gyoptimization using bi-directional evolutionary structural optimization method[J].ComputerMethodsinAppliedMechanicsandEngineering,2018,333:356-370.
[7] Yang H,Ma X W,Jiao F,et al.Preform optimal design of H-shaped forging based on bi-directional evolutionary structural optimization[J].TheInternationalJournalofAdvancedManufacturingTechnology,2019,101(1-4):1-8.
[8] Wang M Y,Wang X M,Guo D M.A level set method for structural topology optimization[J].ComputerMethodsinAppliedMechanicsandEngineering,2003,192(1-2):227-246.
[9] Zhang W S,Chen J S,Zhu X F,et al.Explicit three dimensional topology optimization via Moving Morphable Void (MMV) approach[J].ComputerMe-thodsinAppliedMechanicsandEngineering,2017,322:590-614.
[10] 隋允康,葉紅玲.連續(xù)體結(jié)構(gòu)拓?fù)鋬?yōu)化的ICM方法[M].北京:科學(xué)出版社,2013.(SUI Yun-kang,YE Hong-ling.ContinuumTopologyOptimizationMethodsICM[M].Beijing:Science Press,2013.(in Chinese))
[11] Ye H L,Wang W W,Chen N,et al.Plate/shell structure topology optimization of orthotropic material for buckling problem based on independent continuous topological variables[J].ActaMechanicaSinica,2017,33(5):899-911.
[12] Sosnovik I,Oseledets I.Neural networks for topology optimization[J].RussianJournalofNumericalAnalysisandMathematicalModelling,2019,34(4):215-223.
[13] Lin Q Y,Hong J,Liu Z,et al.Investigation into the topology optimization for conductive heat transfer based on deep learning approach[J].InternationalCommunicationsinHeatandMassTransfer,2018,97:103-109.
[14] Kallioras N A,Kazakis G,Lagaros N D.Accelerated topology optimization by means of deep learning[J].StructuralandMultidisciplinaryOptimization,2020,62(3):1185-1212.
[15] Yu Y,Hur T,Jung J,et al.Deep learning for determining a near-optimal topological design without any iteration[J].StructuralandMultidisciplinaryOptimization,2019,59(3):787-799.
[16] Li B T,Huang C J,Li X,et al.Non-iterative struc-tural topology optimization using deep learning[J].Computer-AidedDesign,2019,115:172-180.
[17] Yi G L,Sui Y K.An adaptive approach to adjust constraint bounds and its application in structural topology optimization[J].JournalofOptimizationTheory&Applications,2016,169(2):656-670.
計(jì)算力學(xué)學(xué)報(bào)2021年4期