国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

反向傳播神經(jīng)網(wǎng)絡聯(lián)合遺傳算法對復合材料模量的預測

2022-11-01 04:01:34王卓鑫趙海濤謝月涵任翰韜袁明清張博明陳吉安
上海交通大學學報 2022年10期
關鍵詞:泊松比模量復合材料

王卓鑫, 趙海濤, 謝月涵, 任翰韜, 袁明清, 張博明, 陳吉安

(1. 上海交通大學 航空航天學院,上海 200240; 2. 中國商用飛機有限責任公司 復合材料中心,上海 201210; 3. 北京航空航天大學 材料科學與工程學院, 北京 100191)

先進樹脂基復合材料除了綠色環(huán)保、便于取得之外,其余優(yōu)異性能不勝枚舉.例如它在高溫下不易變形、抗磨、防銹性能好,具有較高的比強度與比模量、出色的綜合力學性能、可撓曲成形等[1].因而,此類復合材料愈來愈受到宇航制造業(yè)的重視,甚至在各種客機的制造過程中被普遍應用.例如T800/環(huán)氧高溫固化復合材料是民用飛機主受力結構、發(fā)動機葉輪結構等用于抵抗沖擊力的常用材料.而現(xiàn)階段面臨的主要問題是如何提高樹脂基復合材料的模量和強度、降低生產(chǎn)以及測試成本和減少設計周期等.

到目前為止,工業(yè)實驗仍是樹脂基復合材料模量數(shù)據(jù)獲取的主要方式,而此種方式昂貴且耗時,需要對復合材料的所有參數(shù)都進行反復試驗,大大提高了造價和放緩了進程.鑒于此,在大規(guī)模生產(chǎn)之前,以合理的精度預測材料的模量數(shù)據(jù)有助于制造企業(yè)和設計人員縮短周期同時降低成本.現(xiàn)今,機器學習已經(jīng)可以為復雜的工業(yè)設計過程提供實時、快速和較高質量的預測.特別是在復合材料領域,機器學習已經(jīng)成為分析材料屬性的重要工具.Gelayol等[2]曾針對碳纖維結構的力學性能采用支持向量回歸(SVR)和人工神經(jīng)網(wǎng)絡(ANN)的方法進行預測,誤差均低于5%.Zhang等[3]曾用4種機器學習方法,即ANN、支持向量機(SVM)、決策樹(DT)和K最鄰近(KNN)研究石墨烯的3種力學性能,即彈性模量、斷裂強度與應變,這項研究為發(fā)現(xiàn)和使用最新的計算方法探究機械性能提供了獨特視角.Chen等[4]為預測顆粒增強金屬基復合材料的強度,分別用直接法和人工神經(jīng)網(wǎng)絡兩種方式進行對比試驗,發(fā)現(xiàn)人工神經(jīng)網(wǎng)絡能對材料的極限強度和耐久性極限作出比較準確的預測.Qi等[5]在機器學習中使用回歸樹的方法建立了碳纖維單絲的性能變量和復合材料宏觀參數(shù)之間的關系,分析了碳纖維的4種彈性性能,獲得了具有較好泛化性能的模型. 楊紅等[6]采用反向傳播(BP)、徑向基函數(shù)神經(jīng)網(wǎng)絡(RBF)和SVR方法預測分析了木材的性能,通過比較得出SVR的泛化能力和準確率更高. 白曉明[7]將張量分解的數(shù)據(jù)挖掘方法用于分析復合材料的宏觀和微觀性能,該方式在宏觀性能上能夠更貼切直接數(shù)值擬合. 張博[8]采用梯度提升回歸樹(GBRT)的方法對稀土基化合物的磁熵變進行了機器學習預測分析,也得到了較準的預測結果.Qi等[9]針對碳纖維單絲和復合材料的宏觀參數(shù)使用分類回歸樹(CART)的方法對二者的關系展開預測,所得方法改進了測試誤差,可以被借鑒應用到其他領域.

以上研究表明,近年來機器學習已遍及材料學應用的方方面面,并在材料性能預測分析方向具有非常大的潛力.BP神經(jīng)網(wǎng)絡(BP-ANN)被人們熟知且應用在各個領域.考慮到常規(guī)BP神經(jīng)網(wǎng)絡算法存在諸如不易找到全體中最佳解、準確度不高、收斂時間長等問題,本文采用一種全新的預測模量的方法——神經(jīng)網(wǎng)絡聯(lián)合遺傳算法(GA-ANN),該方法基于遺傳算法(GA)修正BP神經(jīng)網(wǎng)絡的參數(shù)值,采用這種改進BP神經(jīng)網(wǎng)絡的方法對樹脂基復合材料的拉伸模量和壓縮模量同時預報和分析.比較各種性能指標之后發(fā)現(xiàn),用GA改良后的BP神經(jīng)網(wǎng)絡的精度有了一定程度提高.

1 數(shù)據(jù)集與神經(jīng)網(wǎng)絡

1.1 數(shù)據(jù)集

本文所采用數(shù)據(jù)庫中樹脂基復合材料[0]6鋪層的強度、泊松比、失效應變以及拉伸模量的數(shù)據(jù)基于ASTM D 3039試驗獲得,壓縮模量數(shù)據(jù)基于SACMA SRM 1R方式獲取.其中,將數(shù)據(jù)庫樣本分為兩類:一類是利用數(shù)據(jù)庫形成模型,另一類是將數(shù)據(jù)庫作為檢驗模型是否合格的“測試者”.利用sklearn將數(shù)據(jù)庫隨機分類為上述兩種功能的樣本,首先把164組數(shù)據(jù)庫樣本隨機打亂,再分別按照75%、25%的比率劃分出樣本集,分別是訓練、測試樣本,即123個用于試驗開發(fā)適于本文的模型,41個則用于測試已形成模型的性能.表1中列出了一些樣本歸一化作為示例,這些樣本示例均來源于經(jīng)過歸一化處理后的試驗數(shù)據(jù)庫.表中:x為材料強度;y為失效應變;ν為泊松比;z1為拉伸模量;z2為壓縮模量.其中將材料強度、泊松比和失效應變作為輸入變量,兩個輸出變量為拉伸模量和壓縮模量.同時,由于參與練習的數(shù)據(jù)屬性較多且不同屬性數(shù)據(jù)間大小迥異,為保證網(wǎng)絡在訓練過程中維持在一定范圍且不溢出,并為能得到較為準確模量數(shù)值,在合適的模型確定前期,對輸入變量和輸出變量都執(zhí)行數(shù)據(jù)預處理成為規(guī)則,以便處理后的值處在0~1之內(nèi)[10],并且輸入變量的歸一化值由下式確定:

Xn=(Xi-Xi,min)/(Xi,max-Xi,min)

(1)

式中:Xi為未歸一化的輸入值;Xi,min為未進行歸一化處理的最小輸入值;Xi,max為未歸一化的輸入變量的最大輸出值.

對輸出變量歸一化值進行類似預處理:

Ym=(Yi-Yi,min)/(Yi,max-Yi,min)

(2)

式中:Yi為未歸一化處理的輸出值;Yi,min為初始最小輸出值;Yi,max為初始變量的最大輸出值.對于測試網(wǎng)絡訓練性能的結果也要經(jīng)過式(1)和(2)加工后才能應用.經(jīng)過規(guī)則化之后的局部數(shù)據(jù)樣本如表1所示.

表1 數(shù)據(jù)集中的部分樣本(歸一化處理)Tab.1 Some samples in the data set (normalized)

1.2 BP神經(jīng)網(wǎng)絡

現(xiàn)如今,數(shù)據(jù)壓縮、分類、函數(shù)逼近等問題都離不開BP-ANN,可以說,BP-ANN已成為最常用的機器學習方法之一,是ANN內(nèi)包含的典型[11].本文利用PyTorch構建上述BP-ANN模型.所用到的PyTorch是一種功能強大的Python庫,類似于NumPy,利用它來構建深度學習模型容易理解、易于上手、靈活高效.本文采用PyTorch中模塊化的方法構建BP神經(jīng)網(wǎng)絡,即在PyTorch中使用順序容器torch.nn.Sequential迅速搭建網(wǎng)絡.使用此方法時會自動將激勵函數(shù)調入其中,并且在此模型中將激勵表達式定義為relU.所構建的BP-ANN結構包括輸入層、輸出層和隱藏層[12],隱藏層應由單個亦可以是若干層組成,有且僅有一個隱藏層的神經(jīng)網(wǎng)絡結構如圖1所示.圖中:wij為隱藏層與輸入層之間的權值;wjk為隱藏層與輸出層之間的權值.在網(wǎng)絡訓練過程中,網(wǎng)絡結構對預測效果有十分重要的影響,例如不同的隱藏層層數(shù),或者是單層中不同的神經(jīng)元數(shù)都會影響神經(jīng)網(wǎng)絡模型的性能.試用不同的隱藏層,根據(jù)平均相對誤差來選擇適合本研究的模型.針對每種隱藏層結構,程序需要重復10次,這是因為對于具有隨機初始點的模型,重復進行10次以上之后,誤差就會基于某值上下浮動,很難再進一步減小[2].為了提高預測效率,本文中設計的程序可以同時對材料的拉伸模量和壓縮模量進行預報,因此兩個輸出模量共用一個神經(jīng)網(wǎng)絡結構.該神經(jīng)網(wǎng)絡有強度、泊松比和破壞應變這3個輸入量,拉伸模量和壓縮模量這兩個輸出量.

圖1 BP神經(jīng)網(wǎng)絡Fig.1 BP neural network

組成隱藏層的神經(jīng)元從2開始依次變到6、10、14,結構從3-θ-2到3-θ-θ-2(θ為隱藏層神經(jīng)元個數(shù)).對于選擇的每種隱藏層,計算相應訓練數(shù)據(jù)和測試數(shù)據(jù)的平均相對誤差(e1,e2),得到的數(shù)據(jù)結果如表2和3所示.比較兩個表,發(fā)現(xiàn)在3-10-2結構時所得模量的平均相對誤差相對更小一些,因此選擇一層具有10個神經(jīng)元的隱藏層,并最終將3-10-2定義為網(wǎng)絡的拓撲.同時在隱藏層引入relU激活函數(shù)來減少模型運行過程中的計算量,起到避免過擬合的作用.所選BP-ANN要進行 1 000 次重復反饋.圖2中顯示了訓練過程中誤差值和學習速率的變化曲線.圖中:h為迭代次數(shù);e為相對誤差.由圖可見,隨著迭代次數(shù)的逐漸遞增,相對誤差最終收斂到一個較小的值,即證明所選擇的網(wǎng)絡結構可以正確地預測模量問題.

表2 一層隱藏層訓練數(shù)據(jù)與測試數(shù)據(jù)平均相對誤差

表3 兩層隱藏層訓練數(shù)據(jù)與測試數(shù)據(jù)平均相對誤差

圖2 神經(jīng)網(wǎng)絡(3-10-2)學習曲線Fig.2 Neural network (3-10-2) learning curves

2 神經(jīng)網(wǎng)絡優(yōu)化算法

2.1 GA優(yōu)化算法

BP-ANN的信號傳遞可以類比生物神經(jīng)網(wǎng)絡,它將模型信息存儲在權重和閾值以及各個神經(jīng)元中,根據(jù)誤差減小的原理反向更進權值和閾值.BP-ANN的權重首次賦值和第一次確定的閾值對結果準確性影響較大,如果采取常規(guī)方式對BP-ANN模型參數(shù)隨便進行賦值,那么在實行模型演練時陷入小部分最解中的現(xiàn)象時常發(fā)生[13].而GA算法屬于啟發(fā)式算法,它基于概率方法完成連貫工作,包括選擇(Select)、交叉(Cross)、變異(Mutate).歷經(jīng)幾次迭代后,在種群后代中選擇優(yōu)秀的個體,從而高效地搜選總體中的最優(yōu)解[14].遺傳算法不僅不用考慮誤差函數(shù)的梯度信息就可以解決冗雜、大型、多峰分布和不可微問題,而且也不要求誤差函數(shù)可微,因而可以顯著地擴展誤差函數(shù)選擇規(guī)模,以降低BP-ANN的復雜度,提高其普遍應用價值.本文根據(jù)GA算法重新創(chuàng)建BP-ANN模型,其每一層權重初值與閾初值被重新修定,進一步在測得模量數(shù)據(jù)集時更接近于正確值.

GA-ANN模型進行優(yōu)化時首先需要大致構建網(wǎng)絡框架,然后利用GA方法將參數(shù)修正改良,最后將更新后的BP-ANN替代原始結構開始預測[15].網(wǎng)絡結構部分是先按照模擬功能的輸入、輸出參數(shù)的數(shù)量來構建網(wǎng)絡部分框架,通過提取材料的強度、泊松比和破壞應變特征值,采用之前預設8種隱藏層建立網(wǎng)絡框架.將BP神經(jīng)網(wǎng)絡的參數(shù)信息編碼于個體中,用遺傳操作對各個參數(shù)進行選擇、變異以及交叉,得到適應值最大的個體對應于網(wǎng)絡的最佳參數(shù).然后將參數(shù)初始數(shù)賦給相應權重和閥值,之后計算出8組ANN預測結果的平均誤差,將差別最小組選成隱藏層,一旦設立了BP-ANN結構,對應需要被優(yōu)化神經(jīng)網(wǎng)絡參數(shù)數(shù)量也隨即得出,由此獲得GA方法編碼長度并確定需要的染色體具體數(shù)量.BP-ANN全部的權重和閥值都被編碼在每一個個體,并且每個個體的適應度值(Fitness)都按照提前設定的Fitness表達式得出,種群經(jīng)過Select、Cross、Mutate等一連串的運算過程,比較個體的Fitness并找到Fitness最大的個體,即適應度最好對應的個體[16].表現(xiàn)最好的個體可用于確定BP-ANN每層權重和閥值的初始賦值,而后即可通過成形的樣本的輸出來完成BP神經(jīng)網(wǎng)絡的工作,從而推測材料兩個模量值.

GA-ANN的示意圖如圖3所示,算法的修正過程如下.

步驟1任意賦值給BP網(wǎng)絡的全部初始參數(shù),完成對BP-ANN的第一次構建.

步驟2根據(jù)GA需要改良的參數(shù)設定初始種群,利用一連串遺傳操作(Select、Cross、Mutate)使BP網(wǎng)絡每一層的權重以及閥值得以充足優(yōu)化.

步驟3更新BP-ANN,首先用123組數(shù)據(jù)集塑造模型,接著用余下41組預測集證明模型的可行性.

圖3 GA-ANN流程圖Fig.3 GA-ANN flow chart

初始化種群.選取0和1組成的計算機編碼方式,所設種群總體里有200個個體,這些個體都有自己的獨特編碼,每個數(shù)值串都對應著網(wǎng)絡參數(shù)的一套初始數(shù)值.初始數(shù)值由輸入層與隱藏層之間的權重、隱藏層與輸出層之間的權重以及隱藏層和輸出層的閾值組成.

染色體設置.3-10-2結構的神經(jīng)網(wǎng)絡具有兩組權重(Weights),輸入層到隱藏層(30),隱藏層到輸出層(20);兩組閾值,輸入層到隱藏層(10),隱藏層到輸出層(2).由此共計有62個參數(shù),每個參數(shù)自定義有18個基因位,初始化為由KaiMing確定的參數(shù)范圍內(nèi)的隨機值.

適應度值計算.為使BP網(wǎng)絡預測盡可能接近真實值,取誤差的倒數(shù)為適應度,自定義種群總體規(guī)模為200,迭加300次,將經(jīng)GA訓練出的最佳參數(shù)代入到網(wǎng)絡中運行.任意個體的適應值可以表示為

f(Xi)=loss(Xi)-1

(3)

(4)

選擇運算.使用輪盤賭的方式,按照概率分配原則選擇適應度性能強的個體組成新的種群,選擇算子的計算方式如下:

(5)

式中:N為種群大??;k為個體數(shù)目.接著對每個個體累積選取概率Qi按照下式進行計算:

(6)

隨機生成一個均勻分布的數(shù)字r,r∈[0, 1].如果r≤Q1,則選擇個體1,如果Qk-1

交叉.從種群里任意篩出兩組親本染色體Cross,選擇Single-point-cross,隨機選擇Cross處,交換兩個染色體該點后面的全部基因.考慮到個體Fitness前后差異不大,因此選擇默認固定交叉率為0.7.

變異.Mutate是種群多樣性存在的一個最主要的方式.試驗選擇基本位Mutate策略.在這種遺傳算法中,染色體較長(基因數(shù)為18×64=1 152),為此Mutate應選取多個基因位.在種群中隨機選取個體之后,選擇變異基因的任意位置進行Mutate操作,將概率設成0.1.

2.2 Adam優(yōu)化算法

Adam在當今機器學習優(yōu)化器中占有非常重要的地位,是目前應用最廣泛且功能最強大的優(yōu)化器之一.尤其在近年來已被應用到利用人工智能解決問題的各個領域中.它對傳統(tǒng)單一的學習率進行了改進,能夠自行更新調節(jié),十分靈活高效.越是復雜的神經(jīng)網(wǎng)絡中越能夠體現(xiàn)它的優(yōu)越性能.在實際應用中,Adam方法延續(xù)了Adagrad和RMSprop兩者的長處,即在非密集梯度問題和振蕩浮動較大的數(shù)據(jù)中維持高能的預測效果.此外,除了達到收斂所用的時間更少,它還可以改善諸如學習率不穩(wěn)定或是高方差參數(shù)幅度過大導致?lián)p失函數(shù)值波動等欠缺.總之,Adam已然成為最受歡迎的優(yōu)化器[17].另外,傳統(tǒng)的機器學習算法如SVR是處理中小數(shù)據(jù)集監(jiān)督訓練的預測數(shù)據(jù)中比較典型的方式,但是在本論文研究內(nèi)容下的平均預測誤差卻較大于神經(jīng)網(wǎng)絡,因此最終采用Adam優(yōu)化神經(jīng)網(wǎng)絡的方法(Adam-ANN)與GA-ANN的性能進行對照.

(7)

(8)

3 結果與討論

采用Anaconda平臺下的軟件Spyder編寫Python(3.7)語言程序,分別對GA-ANN和Adam-ANN兩種算法展開驗證.為了防止模型過度擬合,任意劃分模本集,其中75%為訓練數(shù)據(jù),25%為測試數(shù)據(jù).本試驗對訓練數(shù)據(jù)和測試數(shù)據(jù)都進行了模量預報,由于測試數(shù)據(jù)組不參與模型訓練,所以重點使用41組測試數(shù)據(jù)點進行分析和驗證.表4是在GA和Adam優(yōu)化網(wǎng)絡模型下訓練數(shù)據(jù)集的模量預測關于結果的比較情況.對于拉伸模量,Adam-ANN所得平均相對誤差、RMS和SEP都略小于GA-ANN,值得注意的是,Adam-ANN和GA-ANN的平均相對誤差分別為1.64%、1.66%.而壓縮模量中,GA-ANN模型效果略優(yōu),Adam-ANN和GA-ANN的平均相對誤差分別為2.50%、2.47%.由此可得,用這兩類方式得到的訓練模型均良好且差別甚小.表5對比GA和Adam所得訓練模式下的測試數(shù)據(jù)預測情況.測試集的預測情況是考量最終模型泛化能力的標準,可以得出結論,GA-ANN模型預測性能好于Adam-ANN,GA-ANN的平均相對誤差分別為1.83%、3.22%,Adam-ANN的平均相對誤差為1.94%、3.71%.對于拉伸和壓縮這兩種模量,GA-ANN所得RMS、SEP都略小于Adam-ANN.為了更直觀地說明,這些結論在圖4中以三維圖形的形式表示.由于圖中僅有兩個自變量,所以所作曲面應只對應一個泊松比的數(shù)值.本文選取一個預測效果比較好的測試數(shù)據(jù),將其泊松比的數(shù)值固定為該測試數(shù)據(jù)對應的泊松比的定值,即0.318,然后畫曲面.由圖4可以得出,GA-ANN介于拉伸模量上下誤差限制之間.同樣,對于壓縮模量也有相似的結論.這些結論證實了表5的結果.

表4 GA-ANN和Adam-ANN訓練集預測表Tab.4 Comparison of GA-ANN and Adam-ANN training set prediction results

表5 GA-ANN和Adam-ANN測試集預測表Tab.5 Comparison of prediction results of GA-ANN and Adam-ANN test sets

圖4 GA-ANN和Adam-ANN對拉伸模量和壓縮模量的測試結果Fig.4 Prediction results of GA-ANN and Adam-ANN models on tensile modulus and compressive modulus

圖5 GA-ANN和Adam-ANN對拉伸模量的測試結果Fig.5 Prediction results of GA-ANN and Adam-ANN models on tensile modulus

圖6 GA-ANN和Adam-ANN對壓縮模量的測試結果Fig.6 Prediction results of GA-ANN and Adam-ANN models on compressive modulus

4 結語

BP神經(jīng)網(wǎng)絡已經(jīng)被廣泛地應用到各個領域,特別是對于模糊模型的復雜問題,BP神經(jīng)網(wǎng)絡一般都能夠很好地解決.但是關于參數(shù)初始值的選取環(huán)節(jié),一般都是按照經(jīng)驗或者隨機選取,目前并沒有統(tǒng)一的定論來規(guī)范該操作.而GA可以改善BP關鍵參數(shù)于初始值獲取的不足.相比而言,遺傳算法擅長從總體上展開搜索,而BP算法通常在小范圍搜索中更加有效,因此也常常被困在局部最小值中,經(jīng)過測試發(fā)現(xiàn),混合方式訓練神經(jīng)網(wǎng)絡的效果比僅使用BP訓練的方法更好.

本文通過傳統(tǒng)試驗的方式獲得樹脂基復合材料[0]6鋪層各個試驗件的強度、泊松比、破壞應變、壓縮模量和拉伸模量的真實數(shù)值.并利用強度、泊松比和破壞應變這3個特征值,采用GA優(yōu)化BP神經(jīng)網(wǎng)絡,實現(xiàn)了對材料拉伸模量和壓縮模量的回歸預測,既避免了選取網(wǎng)絡權重和閾值的不確定性,又提升了傳統(tǒng)BP網(wǎng)絡的預測功能.用GA優(yōu)化之后的BP神經(jīng)網(wǎng)絡在測試集上進行驗證檢測,其平均相對誤差不足3%,證明該算法性能良好.在與Adam-ANN的對比試驗中,GA的平均相對誤差、RMS、SEP值均較小,說明GA-ANN更具普適性、測試精度效果優(yōu),可以通過訓練模型得到誤差較小的復合材料模量值.本項工作為使用機器學習優(yōu)化方法探索材料的模量特性提供了一些啟示,可以應用到除了樹脂基復合材料以外的各種材料中.

為了進一步增強預測模型的適應性和提高其預測數(shù)據(jù)的準確度,在未來的研究中,將采用機器學習與有限元相結合的方法擴充數(shù)據(jù)庫,更大量的數(shù)據(jù)集將被用作模型的輸入.再者,將思考使用更復雜機器學習模型與特征選擇方式.最后,由于本研究是基于[0]6試驗件鋪層對模量數(shù)據(jù)進行預測,所以不包括其他鋪層情形,例如[90]12、[45/-45]4S、[45/0/-45/90]2S等,后續(xù)研究將重點探索各種鋪層的交錯預測.

致謝感謝第三屆中國商飛國際科技創(chuàng)新周對本項目的資金資助.

猜你喜歡
泊松比模量復合材料
具有負泊松比效應的紗線研發(fā)
負泊松比功能的結構復合紡紗技術進展
毛紡科技(2020年6期)2021-01-06 03:41:48
高勁度模量瀝青混合料在京臺高速車轍維修段的應用
室內(nèi)回彈模量和回彈再壓縮模量試驗參數(shù)探討
山西建筑(2020年11期)2020-06-04 00:09:48
考慮粘彈性泊松比的固體推進劑蠕變型本構模型①
固體推進劑粘彈性泊松比應變率-溫度等效關系
民機復合材料的適航鑒定
關于現(xiàn)行規(guī)范路基頂面回彈模量的理解和應用
上海公路(2018年4期)2018-03-21 05:57:24
復合材料無損檢測探討
電子測試(2017年11期)2017-12-15 08:57:13
TiO2/ACF復合材料的制備及表征
應用化工(2014年10期)2014-08-16 13:11:29
永靖县| 盖州市| 屯门区| 保德县| 白沙| 永顺县| 阜新| 闸北区| 红河县| 响水县| 临高县| 固原市| 濉溪县| 绵竹市| 涿州市| 响水县| 东平县| 大新县| 中山市| 绵竹市| 广丰县| 奉化市| 黄浦区| 宁武县| 英吉沙县| 合水县| 德昌县| 濮阳县| 七台河市| 海兴县| 华坪县| 平阴县| 黔西县| 伊春市| 南澳县| 东乡| 惠安县| 怀化市| 安宁市| 罗甸县| 醴陵市|