国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于局部特征的卷積神經(jīng)網(wǎng)絡(luò)模型

2018-03-03 01:26:24顧大權(quán)趙章明
計算機(jī)工程 2018年2期
關(guān)鍵詞:權(quán)值卷積向量

施 恩,李 騫,顧大權(quán),趙章明

(解放軍理工大學(xué) 氣象海洋學(xué)院,南京 211101)

0 概述

大數(shù)據(jù)的發(fā)展促使深度學(xué)習(xí)在語音識別、圖像分類、文本理解等眾多領(lǐng)域得到了廣泛應(yīng)用,深度學(xué)習(xí)的計算模式是先從訓(xùn)練數(shù)據(jù)出發(fā),經(jīng)過一個端到端的模型,然后直接輸出得到最終結(jié)果[1]。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)的重要分支,由于CNN具有特殊的網(wǎng)絡(luò)結(jié)構(gòu),因此其在圖像處理領(lǐng)域具有深遠(yuǎn)的研究前景,近年來得到高度重視并引起廣泛研究[2]。

卷積神經(jīng)網(wǎng)絡(luò)起源于Hbbel和Wiesel對貓的視覺皮層神經(jīng)元細(xì)胞研究[3],并在多層感知器的基礎(chǔ)上發(fā)展成為一種深層神經(jīng)網(wǎng)絡(luò)。紐約大學(xué)的LeCun Yann提出了經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型LeNet[4-5],該網(wǎng)絡(luò)模型采用后向傳播算法(Back Propagation,BP)更新網(wǎng)絡(luò)權(quán)值參數(shù),對此后的研究工作有著深遠(yuǎn)的影響。此后,AlexNet網(wǎng)絡(luò)模型[6]被認(rèn)為是對卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)工作中的重大突破。此后還出現(xiàn)了GoogleNet、ResNet等新的網(wǎng)絡(luò)模型,它們的主要改進(jìn)思路是增加網(wǎng)絡(luò)深度。

由于卷積神經(jīng)網(wǎng)絡(luò)受生物視覺認(rèn)知方式啟發(fā)而來,具有特殊的網(wǎng)絡(luò)結(jié)構(gòu),與BP神經(jīng)網(wǎng)絡(luò)等其他神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)在處理圖像時具有直接性和高效性:直接性體現(xiàn)在卷積神經(jīng)網(wǎng)絡(luò)可以直接將原始圖像作為輸入,避免了對圖像的復(fù)雜前期預(yù)處理,提高了算法效率;高效性體現(xiàn)在卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值參數(shù)少、收斂速度快,很大程度上加快了網(wǎng)絡(luò)的訓(xùn)練過程。同時,卷積神經(jīng)網(wǎng)絡(luò)因其學(xué)習(xí)和記憶特性,在識別圖像時無需給出經(jīng)驗知識和判別函數(shù),只需通過樣本訓(xùn)練網(wǎng)絡(luò),并根據(jù)網(wǎng)絡(luò)輸出與樣本目標(biāo)輸出的差值調(diào)整權(quán)值參數(shù),利用訓(xùn)練好的網(wǎng)絡(luò)能夠?qū)斎雸D像進(jìn)行分類,達(dá)到識別目的。

傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在處理特征模糊、歧義性大的輸入圖像時容易受到圖像中不相關(guān)信息誤導(dǎo),難以保證較高的識別率。若能將圖像中不相關(guān)的信息屏蔽,提高特征明顯的局部圖像對整幅圖像輸出結(jié)果的影響權(quán)重,即能有效提高對于特征模糊圖像的識別率。基于上述思想,本文構(gòu)建基于局部特征的卷積神經(jīng)網(wǎng)絡(luò)模型(Convolutional Neural Network Model Based on Local Feature,CNN-LF)。

1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要分支,被廣泛應(yīng)用于圖像處理、模式識別等領(lǐng)域。該網(wǎng)絡(luò)最大的特點在于采用局部連接、權(quán)值共享、下采樣的方法來模擬生物視覺神經(jīng)元細(xì)胞的工作機(jī)制,對輸入圖像的形變、平移和翻轉(zhuǎn)具有較強(qiáng)的適應(yīng)性。其中局部連接使網(wǎng)絡(luò)中的每一個神經(jīng)元只與上一層網(wǎng)絡(luò)中鄰近的部分神經(jīng)元相連,簡化了網(wǎng)絡(luò)模型;權(quán)值共享使得卷積濾波器共享相同的權(quán)重矩陣和偏置項,很大程度上減少了需要訓(xùn)練的權(quán)值參數(shù)數(shù)量;下采樣能夠減小特征圖的分辨率,從而降低計算復(fù)雜度,并使網(wǎng)絡(luò)對圖像的平移、形變不敏感[7-10]。

與其他神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)的獨特性在于采用卷積層和下采樣層交替的方式提取圖像特征,從而減少訓(xùn)練參數(shù)的數(shù)量,在保持網(wǎng)絡(luò)學(xué)習(xí)能力的同時,降低網(wǎng)絡(luò)訓(xùn)練難度[11]。

1.1 卷積層

在卷積層中,輸入特征圖與卷積濾波器相卷積,卷積結(jié)果加上一個偏置項作為激活函數(shù)的輸入,經(jīng)過激活函數(shù)處理后得到該層的輸出特征圖。為一個k階矩陣,包含k×k個可訓(xùn)練參數(shù)。對于一個大小為m×n的輸入特征圖,與k×k的卷積核相卷積之后,輸出特征圖大小為(m-k+1)×(n-k+1)。卷積層的表達(dá)形式為:

(1)

圖1展示了一個5×5的輸入圖像與3×3的卷積核相卷積的過程。

圖1 卷積操作示意圖

1.2 下采樣層

在下采樣層中,要對輸入特征圖進(jìn)行降分辨率。將提取到的圖像特征映射到更小的平面范圍中,以簡化網(wǎng)絡(luò)結(jié)構(gòu),降低計算規(guī)模。下采樣是以一定步長對輸入特征圖進(jìn)行采樣,而非連續(xù)采樣,一般情況下采樣步長與采樣核寬度相一致。若采樣核大小為s×s,則需要將輸入特征圖劃分為若干個s×s的子區(qū)域進(jìn)行映射,每個區(qū)域經(jīng)過采樣函數(shù)后輸出一個特征值,這就使輸出特征圖的尺寸降為輸入特征圖的1/s。下采樣層的表達(dá)形式為:

(2)

圖2 下采樣示意圖

2 CNN-LF模型

2.1 改進(jìn)思想

卷積神經(jīng)網(wǎng)絡(luò)在識別圖像過程中有時會因為輸入圖像中存在干擾信息而影響識別結(jié)果,圖3為包含干擾信息的2張手寫數(shù)字圖像。在圖3(a)中,右側(cè)圖像是左側(cè)圖像取左下部分的局部圖像,在圖3(b)中,右側(cè)圖像是左側(cè)圖像取右下部分的局部圖像。當(dāng)圖像中存在干擾信息時,容易影響卷積神經(jīng)網(wǎng)絡(luò)的識別結(jié)果,如圖3中的數(shù)字“8”和“0”容易被識別為數(shù)字“6”。若對歧義性大的圖像中特征較為明顯的局部進(jìn)行識別,則能有效解決這一問題,如圖3中右側(cè)的2張局部圖像,其圖像特征明顯,不存在干擾信息,便于卷積神經(jīng)提取圖像特征。

圖3 包含干擾信息的數(shù)字圖像

基于上述思想,本文設(shè)計一種基于局部特征的卷積神經(jīng)網(wǎng)絡(luò)模型(CNN-LF),通過對特征明顯的局部圖像進(jìn)行識別,屏蔽輸入圖像中的干擾信息。

2.2 CNN-LF模型結(jié)構(gòu)

CNN-LF基于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型LeNet-5。LeNet網(wǎng)絡(luò)模型首次引入部分連接、權(quán)值共享以及下采樣方法,被認(rèn)為是真正意義上的卷積神經(jīng)網(wǎng)絡(luò),在此基礎(chǔ)上發(fā)展的LeNet-5最早被應(yīng)用銀行支票上的手寫數(shù)字識別,識別率達(dá)到了99.2%[12-13]。與LeNet-5相比,CNN-LF在激活函數(shù)的選取和全連接分類層的構(gòu)造上進(jìn)行改進(jìn),并增加局部特征提取 (Local Feature Extration,LFE) 層和概率權(quán)重綜合 (Probability Importance Synthesis,PIS) 層,CNN-LF的總體結(jié)構(gòu)如圖4所示。

圖4 CNN-LF模型總體結(jié)構(gòu)

CNN-LF由3個部分組成:改進(jìn)的LeNet-5作為子網(wǎng)絡(luò),LFE層,PIS層,下面分別進(jìn)行詳細(xì)說明。

2.3 改進(jìn)的LeNet-5模型

CNN-LF的子網(wǎng)絡(luò)由經(jīng)改進(jìn)后的LeNet-5構(gòu)成,該網(wǎng)絡(luò)包含7層結(jié)構(gòu),除輸入層和輸出層以外,還包含2層卷積層(C1,C2)、2層下采樣層(S1,S2)和1層全連接層(F1),其網(wǎng)絡(luò)結(jié)構(gòu)示意如圖5所示。

圖5 改進(jìn)的LeNet-5模型結(jié)構(gòu)

卷積層C1中包含6個大小為5×5的卷積核,得到6幅大小為24×24的輸出特征圖;卷積層C2中包含12個大小為5×5的卷積核,得到12幅大小為8×8的輸出特征圖;下采樣層S1與S2都是對輸入特征圖進(jìn)行平均值采樣(Mean-Pooling),經(jīng)采樣后輸出特征圖的分辨率降為輸入特征圖的1/4。

LeNet-5是卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型,該網(wǎng)絡(luò)模型在文獻(xiàn)[2-3]中有詳細(xì)的說明,本文對LeNet-5的改進(jìn)主要包括以下3點:

1)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)層間連接方式。改進(jìn)后的網(wǎng)絡(luò)中C2層的卷積核數(shù)量為12,得到12幅輸出特征圖且每一幅輸出特征圖都與S1層的6幅輸出特征圖存在連接,而原LeNet-5中該層次卷積核數(shù)量為16,每一幅輸出特征圖只與上一采樣層的部分輸出特征圖存在連接。

2)對網(wǎng)絡(luò)高層結(jié)構(gòu)進(jìn)行簡化。LeNet-5的高層包括2層全連接層,并用徑向基(RBF)函數(shù)處理得到網(wǎng)絡(luò)輸出。由于全連接層中包含大量權(quán)值參數(shù),因此減少全連接層的數(shù)量有利于降低計算復(fù)雜度。改進(jìn)后的LeNet-5僅包含一層全連接層F1,F1為S2的12個特征圖展開形成的列向量。輸出層采用Softmax函數(shù),Softmax函數(shù)常用于多分類問題中,由于其的歸一化特性,改進(jìn)后的LeNet-5的輸出可以視為概率向量,該向量中的每一個元素代表對應(yīng)分類的概率。

3)對激活函數(shù)的選擇進(jìn)行優(yōu)化。LeNet-5中激活函數(shù)采用tanh雙曲正切函數(shù),該函數(shù)作為激活函數(shù)存在梯度飽和問題,即當(dāng)輸入很大或很小時,求得的梯度值接近于0,使得網(wǎng)絡(luò)收斂緩慢[8-9]。本文借鑒AlexNet的做法,以ReLU函數(shù)作為激活函數(shù),該函數(shù)具有單側(cè)抑制、相對寬闊的激活范圍以及稀疏激活性的特點,與tanh相比效果更優(yōu)。

2.4 LFE層

LFE層主要用于提取輸入圖像的局部特征,作用于子網(wǎng)絡(luò)之前,不包含需要訓(xùn)練的權(quán)值參數(shù)。由于輸入圖像的中間部分包含圖像的主要特征,在提取局部特征時,若簡單地對對輸入圖像進(jìn)行等分,容易破壞圖像特征,因此需要根據(jù)圖像大小采取相應(yīng)的劃分策略,以盡量保留圖像中間部分的特征。此外,還需要用空白信息,將提取到的局部特征圖拓展到與原輸入圖神經(jīng)網(wǎng)絡(luò)對于輸入圖像具有平移不變性,因像相同的分辨率,以保證網(wǎng)絡(luò)結(jié)構(gòu)的一致性,由于卷積此對局部圖像進(jìn)行填充并不會影響網(wǎng)絡(luò)識別圖像特征。LFE層對輸入圖像的處理過程如圖6所示。由于實驗中的輸入圖像分辨率為28×28,因此設(shè)置提取局部特征的窗口大小為18×18,能夠包含輸入圖像中間部分的主要特征。經(jīng)過LFE層之后,得到4幅與輸入圖像同分辨率的局部圖像。

圖6 LFE層數(shù)據(jù)處理過程

2.5 PIS層

PIS層對子網(wǎng)絡(luò)輸出的概率向量進(jìn)行綜合計算,首先用softplus函數(shù)處理輸入的概率向量,再對概率向量進(jìn)行求和,得到最終的輸出向量,輸出向量中的最大元素對應(yīng)的序號即為CNN-LF的分類結(jié)果。softplus函數(shù)的數(shù)學(xué)表達(dá)形式如下:

f(x)=ln(1+ex)

(3)

softplus函數(shù)曲線如圖7所示,其中虛線為對照直線。

圖7 softplus函數(shù)曲線

由圖7可知,當(dāng)自變量取值為0~1時,softplus函數(shù)的斜率隨自變量的增大而增大,因此,softplus函數(shù)能夠進(jìn)一步增大強(qiáng)信號與弱信號之間的差異。輸入的概率向量經(jīng)softplus函數(shù)處理后,向量中較大的元素能夠獲得更大的權(quán)重。圖8為PIS層對輸入的概率向量綜合處理得到輸出的過程。PIS層輸入的概率向量和CNN-LF最終的輸出都為列向量(10×1),圖8中僅將分類值為“6”和“8”(向量中第6個和第8個元素)的元素值列出,網(wǎng)絡(luò)最終的識別結(jié)果為輸出向量中最大元素對應(yīng)分類值。

圖8 PIS層數(shù)據(jù)處理過程

3 實驗與結(jié)果分析

為驗證CNN-LF的性能,本文在MNIST手寫數(shù)字?jǐn)?shù)據(jù)集上進(jìn)行實驗,分別用CNN-LF和LeNet-5實現(xiàn)了手寫數(shù)字識別,針對實驗結(jié)果進(jìn)行對比分析。

3.1 實驗數(shù)據(jù)

MNIST手寫數(shù)字?jǐn)?shù)據(jù)集由Google實驗室的Corinna Cortes和紐約大學(xué)的Yann LeCun建立,共包含70 000幅樣本圖像,其中60 000幅為訓(xùn)練集,10 000幅為測試集。MNIST數(shù)據(jù)集中的每一個手寫數(shù)字樣本都是一幅分辨率為28×28的灰度圖像,由于采集樣本的對象不同,對于同一數(shù)字,不同樣本之間存在很大差異性。圖9是從MNIST數(shù)據(jù)集中分別提取數(shù)字“0”和數(shù)字“1”的16個樣本。

圖9 MNIST數(shù)據(jù)集中的數(shù)字“0”和“1”

3.2 實驗結(jié)果

設(shè)計實驗將CNN-LF與經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5進(jìn)行對比。對比實驗中,除了兩者的網(wǎng)絡(luò)結(jié)構(gòu)不同以外,保持其他的網(wǎng)絡(luò)參數(shù)相一致,依據(jù)Xavier初始化方法對兩者的卷積核進(jìn)行初始化[14-16],訓(xùn)練過程采取隨機(jī)梯度下降方法,每次輸入20個樣本進(jìn)行訓(xùn)練(即每識別20個樣本調(diào)整一次權(quán)值),學(xué)習(xí)率為0.01,使用帶動量項的BP算法更新權(quán)值,動量系數(shù)取0.9[17]。圖10為LeNet模型和CNN-LF模型的實驗結(jié)果對比。實驗中CNN-LF在訓(xùn)練階段每迭代一次(處理60 000個樣本)耗時約為2 min,訓(xùn)練網(wǎng)絡(luò)時網(wǎng)絡(luò)迭代次數(shù)越大,訓(xùn)練后的網(wǎng)絡(luò)識別率就越高。

圖10 訓(xùn)練迭代次數(shù)與識別率

由圖10可以看出,與LeNet-5相比,CNN-LF的識別錯誤率更低,尤其是在迭代次數(shù)較小的情況下,CNN-LF能夠?qū)⒆R別錯誤率降低1.0%~1.5%。當(dāng)訓(xùn)練迭代次數(shù)達(dá)到40次時,CNN-LF基本達(dá)到收斂狀態(tài),此時的錯誤率為0.45%。由于CNN-LF增加了LFE層和PIS層,網(wǎng)絡(luò)結(jié)構(gòu)更為復(fù)雜,因此在對比實驗中CNN-LF在訓(xùn)練階段的耗時高于LeNet-5模型。

3.3 采樣分析

為進(jìn)一步驗證CNN-LF性能,本文根據(jù)LeNet-5的測試結(jié)果對測試樣本進(jìn)行重采樣,獲取迭代次數(shù)為20 時LeNet-5識別錯誤的數(shù)據(jù)集(Testing Error set)。Testing Error set中的圖像特征較為模糊,歧義性較大,圖11為Testing Error set中的部分樣本圖像。

圖11 Testing Error set中部分樣本

在Testing Error set上對不同迭代次數(shù)下的CNN-LF和LeNet-5進(jìn)行測試,實驗結(jié)果如表1所示。表1中Iterations表示用于測試的CNN-LF在訓(xùn)練階段的迭代次數(shù),其中結(jié)果表明,CNN-LF在識別特征不明顯的圖像時能夠保持較高的識別率,在迭代次數(shù)相同的情況下,CNN-LF與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,識別錯誤率更低。

表1 在Testing Error set上的識別錯誤率 %

4 結(jié)束語

本文在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,構(gòu)建一個新的網(wǎng)絡(luò)模型CNN-LF。通過增加局部特征提取層和概率權(quán)重綜合層對圖像的局部特征進(jìn)行識別,并根據(jù)輸出的概率向量將局部圖像的識別結(jié)果以一定的權(quán)重進(jìn)行累加,得到最終的網(wǎng)絡(luò)輸出。通過在MNIST數(shù)據(jù)集上進(jìn)行對比實驗,并在重采樣得到的Testing Error set上進(jìn)一步分析,證明該模型比傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)模型識別率更高,尤其對于特征模糊的圖像具有較高的適用性。后續(xù)工作是進(jìn)一步優(yōu)化CNN-LF模型,并將其應(yīng)用于其他圖像識別領(lǐng)域。

[1] 鄭 胤,陳權(quán)崎,章毓晉.深度學(xué)習(xí)及其在目標(biāo)和行為識別中的新進(jìn)展[J].中國圖象圖形學(xué)報,2014,19(2):175-184.

[2] 周志華,陳世福.神經(jīng)網(wǎng)絡(luò)集成[J].計算機(jī)學(xué)報,2002,25(1):1-8.

[3] RUMELHART D,MCCLELLAND J.Parallel Distributed Processing:Explorations in the Microstructure of Cognition:Foundations [M].Cambridge,USA:MIT Press,1987.

[4] LeCUN Y,BOTTOU L,BENGIO Y.Gradient-based Learning Applied to Document Recognition[J].Proceedings of the IEEE,1998,86 (11):2278-2324.

[5] LECUN Y,HUANG F J.Large-scale Learning with SVM and Convolutional for Generic Object Categorization[C]//Proceedings of IEEE Computer Society Conference on Computer Vision & Pattern Recognition.Washington D.C.,USA:IEEE Press,2006:284-291.

[6] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.Imagenet Classification with Deep Convolutional Neural Networks[M]//PEREIRA F,BURGES C J C,BOTTOU L,et al.Advances in Neural Information Processing Systems 25.[S.l.]:Neural Information Processing Systems Foundation,Inc.,2012:1097-1105.

[7] 常 亮,鄧小明,周明全,等.圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J].自動化學(xué)報,2016,42(9):1300-1312.

[8] KALCHBRENNER N,GREFENSTETTE E,BLUNSOM P.A Convolutional Neural Network for Modelling Sentences[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics.[S.l.]:Association for Computational Linguistics,2014:655-665.

[9] JI Shuiwang,XU Wei,YANG Ming,et al.3D Convolutional Neural Networks for Human Action Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1):221-231.

[10] YANG Weixin,JIN Lianwen,TAO Dacheng.DropSample :A New Training Method to Enhance Deep Convolutional Neural Networks for Large-scale Unconstrained Handwritten Chinese Character Recognition[J].Pattern Recognition,2010,20(1):17-21.

[11] 張佳康,陳慶奎.基于CUDA技術(shù)的卷積神經(jīng)網(wǎng)絡(luò)識別算法[J].計算機(jī)工程,2010,36(15):179-181.

[12] LeCUN Y,BENGIO Y,HINTON G.Deep Learning[J].Nature,2015,521(7553):436-444.

[13] GARCIA C,DELAKIS M.Convolutional Face Finder:A Neural Architecture for Fast and Robust Face Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(11):1408-1423.

[14] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C.,USA:IEEE Press,2014:580-587.

[15] KARPATHY A,TODERICI G,SHETTY S,et al.Large-scale Video Classification with Convolutional Neural Net-works[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C.,USA:IEEE Press,2014:1725-1732.

[16] DONAHUE J,JIA Yangqing,VINYALS O,et al.DeCAF:A Deep Convolutional Activation Feature for Generic Visual Recognition[J].Computer Science,2013,50(1):815-830.

[17] ZAMORA-MARTNEZ F,FRINKEN V,ESPAABOQUER A S,et al.Neural Network Language Models for Off-line Handwriting Recognition[J].Pattern Recognition,2014,47(4):1642-1652.

猜你喜歡
權(quán)值卷積向量
一種融合時間權(quán)值和用戶行為序列的電影推薦模型
向量的分解
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
聚焦“向量與三角”創(chuàng)新題
CONTENTS
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
向量垂直在解析幾何中的應(yīng)用
向量五種“變身” 玩轉(zhuǎn)圓錐曲線
巴楚县| 中方县| 伊通| 内丘县| 隆林| 西林县| 江西省| 民县| 津南区| 长顺县| 门头沟区| 河池市| 大洼县| 通榆县| 邻水| 永善县| 班玛县| 特克斯县| 怀安县| 和田县| 兴山县| 苏尼特左旗| 海林市| 乐亭县| 两当县| 枣阳市| 南康市| 淳安县| 河间市| 乐业县| 时尚| 全椒县| 个旧市| 文水县| 沁阳市| 凯里市| 武川县| 泰州市| 常熟市| 宣恩县| 霞浦县|