国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

語(yǔ)音情感識(shí)別中面向小數(shù)據(jù)集的CGRU方法

2020-12-25 06:10:32吳俊清倪建成魏媛媛
關(guān)鍵詞:音頻語(yǔ)音卷積

吳俊清,倪建成,魏媛媛

(曲阜師范大學(xué) 軟件學(xué)院,山東 曲阜 273100)

0 引 言

情感是提升人機(jī)交互和諧的重要因素,也是影響人類行為決策的內(nèi)在驅(qū)動(dòng)。語(yǔ)音中不僅包含大量的語(yǔ)義信息,還蘊(yùn)含著豐富的情感內(nèi)涵。語(yǔ)音情感識(shí)別的優(yōu)劣很大程度依賴于特征的構(gòu)建,而情感作為一種抽象的個(gè)體,很難有標(biāo)準(zhǔn)的特征表示,因此如何獲取準(zhǔn)確的情感特征成為語(yǔ)音情感識(shí)別的一大難題。傳統(tǒng)的語(yǔ)音特征大致從韻律學(xué)特征(如基頻、能量、時(shí)長(zhǎng))、頻譜特征(Mel倒譜系數(shù)-MFCC、線性預(yù)測(cè)倒譜系數(shù)-LPCC)和聲音質(zhì)量特征(即人們賦予語(yǔ)音的主觀評(píng)價(jià)指標(biāo),用于衡量語(yǔ)音是否純凈、清晰、容易辨識(shí)等,如喘息、顫音、哽咽等)[1]提取關(guān)聯(lián)信息,這些特征都是手工構(gòu)建,需花費(fèi)大量時(shí)間和精力,因此,人們逐漸將注意力放在自動(dòng)提取特征方面。

譜圖可以捕捉語(yǔ)音信號(hào)間不同的情感特征,是一種流行的特征表示方式,研究表明,使用深度學(xué)習(xí)方法從譜圖圖像中自動(dòng)學(xué)習(xí)情感特征可以達(dá)到甚至超過(guò)手動(dòng)特征的識(shí)別效果。文獻(xiàn)[2-3]都構(gòu)建了一種包含靜態(tài)系數(shù)、一階系數(shù)和二階系數(shù)的三通道的log-mel譜圖,文獻(xiàn)[2]中使用譜圖提取的深度特征較使用韻律和MFCC特征的平均召回率提升了1.7%。文獻(xiàn)[4]中使用mel譜圖提取深度譜特征,發(fā)現(xiàn)利用BLSTM-FCN網(wǎng)絡(luò)模型計(jì)算出的每個(gè)頻帶的深譜特征與傳統(tǒng)的語(yǔ)音情感識(shí)別的聲學(xué)特征表示方法相比,在性能上是相當(dāng)?shù)摹?/p>

1 相關(guān)工作

近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別任務(wù)中表現(xiàn)優(yōu)異[5-7],因此,利用CNN捕捉局部特征的能力實(shí)現(xiàn)自動(dòng)獲取識(shí)別任務(wù)特征,從而代替?zhèn)鹘y(tǒng)手工特征構(gòu)建,簡(jiǎn)化特征提取過(guò)程的思想逐漸流行。CNN具有局部連接、權(quán)值共享的特性,使模型對(duì)平移縮放具有一定的不變性,在各種信號(hào)和信息處理任務(wù)中的性能優(yōu)于標(biāo)準(zhǔn)的全連接神經(jīng)網(wǎng)絡(luò)[8]。由于它們高精度的識(shí)別率,因此在大規(guī)模圖像識(shí)別任務(wù)中成為最主要的方法。Mao等人[9]首次使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)學(xué)習(xí)SER的情感顯著性特征,并在幾個(gè)基準(zhǔn)數(shù)據(jù)集上顯示出優(yōu)異的性能。文獻(xiàn)[10]通過(guò)預(yù)訓(xùn)練的AlexNet作為特征提取器對(duì)信號(hào)生成的譜圖提取深度特征,以類似的方式,文獻(xiàn)[11]依據(jù)caffenet為基準(zhǔn)結(jié)構(gòu)刪減掉原始三個(gè)連續(xù)卷積層中的兩個(gè),并以灰度譜圖作為網(wǎng)絡(luò)輸入,減小訓(xùn)練時(shí)間加速模型收斂。

CNN可以有效地獲取圖像高級(jí)特征,但受限于卷積網(wǎng)絡(luò)自身結(jié)構(gòu)特性,因此很難捕捉到時(shí)域方向的特征,近期文獻(xiàn)表明,研究者更傾向于構(gòu)建一種結(jié)合CNN和RNN的新型網(wǎng)絡(luò)結(jié)構(gòu),以此更好地學(xué)習(xí)譜圖時(shí)域和頻域特征。在文獻(xiàn)[12-13]中,研究人員將卷積層和遞歸層結(jié)合起來(lái),以提高基于時(shí)域語(yǔ)音信號(hào)或原始信號(hào)的語(yǔ)音情感識(shí)別任務(wù)的性能。文獻(xiàn)[14]提出了一種結(jié)合CNN和LSTM且用于大量詞匯語(yǔ)音識(shí)別的卷積遞歸神經(jīng)網(wǎng)絡(luò)(Crnn)。實(shí)驗(yàn)結(jié)果表明,該模型具有較高的語(yǔ)音識(shí)別性能。與此同時(shí),Aharon Satt等人[15]構(gòu)建了一種三層卷積連接一層LSTM的深層網(wǎng)絡(luò)結(jié)構(gòu)用于語(yǔ)音情感識(shí)別,該系統(tǒng)與以前沒有延遲約束(約束≤3秒)的工作相比,在通用基準(zhǔn)測(cè)試數(shù)據(jù)集IEMOCAP上達(dá)到最先進(jìn)的識(shí)別精度。文獻(xiàn)[16]提出一種基于串聯(lián)CNN和RNN訓(xùn)練的SER方法,該方法無(wú)需使用任何傳統(tǒng)的手工功能。將所提方法應(yīng)用于語(yǔ)音情感數(shù)據(jù)庫(kù)中,分類結(jié)果證明比使用常規(guī)分類方法具有更好的準(zhǔn)確性。

雖然利用深度學(xué)習(xí)提取譜圖特征成為語(yǔ)音情感識(shí)別的一種趨勢(shì),但是應(yīng)用于小數(shù)據(jù)集上的深度學(xué)習(xí)研究相對(duì)較少,為解決小數(shù)據(jù)集上存在深度學(xué)習(xí)過(guò)擬合且識(shí)別精度低的問(wèn)題,提出一種基于語(yǔ)音和圖像雙重增強(qiáng)的卷積神經(jīng)網(wǎng)絡(luò)與門控循環(huán)單元網(wǎng)絡(luò)結(jié)合的深度學(xué)習(xí)模型。通過(guò)對(duì)Emo-DB德語(yǔ)情感語(yǔ)料庫(kù)進(jìn)行語(yǔ)音和圖像增強(qiáng),對(duì)增強(qiáng)后的Mel功率譜圖進(jìn)行深度學(xué)習(xí)的模型構(gòu)建并對(duì)識(shí)別結(jié)果進(jìn)行評(píng)估。

2 模 型

2.1 模型結(jié)構(gòu)

2.1.1 卷積模塊

近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域大放異彩,得益于卷積操作強(qiáng)大的特征提取能力,將增強(qiáng)后的語(yǔ)音生成的Mel功率譜圖作為卷積神經(jīng)網(wǎng)絡(luò)的輸入。不同于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),在構(gòu)建前兩層卷積層時(shí)用BN層代替池化層,這樣可以盡可能多地保留局部信息特征,減少池化操作帶來(lái)的信息丟失,加入的BN層可以加速模型訓(xùn)練并提高泛化性能。盡管卷積網(wǎng)絡(luò)會(huì)學(xué)習(xí)到不錯(cuò)的抽象特征,但會(huì)忽略時(shí)間方向的信息,考慮到這個(gè)問(wèn)題,在卷積模塊后面接入GRU模塊,以便獲取時(shí)域信息。

2.1.2 GRU模塊

圖1 GRU單元結(jié)構(gòu)

zt=σ(Wz·[ht-1,xt])

(1)

rt=σ(Wr·[ht-1,xt])

(2)

(3)

(4)

2.1.3 CGRU模型

CGRU模型由卷積模塊與GRU模塊構(gòu)成,該模型結(jié)構(gòu)如圖2所示。卷積模塊利用卷積操作提取Mel功率譜圖的抽象特征,然后經(jīng)過(guò)BN層對(duì)特征進(jìn)行規(guī)范化操作,使該層數(shù)據(jù)盡量接近標(biāo)準(zhǔn)分布,再通過(guò)ReLU層將數(shù)據(jù)映射到[0,∞),由于該激活函數(shù)不存在“飽和區(qū)”,因此可有效避免梯度消失。該結(jié)構(gòu)只在最后一層卷積后加入池化層,可適當(dāng)?shù)販p少特征維度,提升模型訓(xùn)練速度。

圖2 CGRU結(jié)構(gòu)

卷積模塊后接Flatten層將多維輸入轉(zhuǎn)換成一維,再連接dropout層,訓(xùn)練時(shí)使部分神經(jīng)元失活,可有效避免過(guò)擬合發(fā)生。最后,通過(guò)兩層GRU獲取時(shí)間序列層面所包含的信息,對(duì)特征作進(jìn)一步提取,提取后的特征作為全連接層的輸入,經(jīng)過(guò)softmax計(jì)算出類別概率。

2.2 語(yǔ)音預(yù)處理

Emo-DB共有535個(gè)音頻文件,數(shù)據(jù)存在數(shù)據(jù)量小且類別不平衡的現(xiàn)象,因此并不適合直接作為深度學(xué)習(xí)的學(xué)習(xí)對(duì)象??紤]到每個(gè)音頻時(shí)長(zhǎng)均不超過(guò)三秒,因此,在保持時(shí)長(zhǎng)不變的前提下對(duì)音頻進(jìn)行上移和下移操作以此增強(qiáng)語(yǔ)音數(shù)據(jù)的豐富性。數(shù)據(jù)原始采樣率為16 kHz,論文重采樣至22.05 Hz。音頻增強(qiáng)具體操作步驟如下(文中涉及到的上移/下移操作表示分別做上移和下移操作的簡(jiǎn)稱):

(1)對(duì)“angry”類別的所有音頻分別做上移/下移1個(gè)半步、上移/下移2個(gè)半步、上移/下移2.5個(gè)半步操作;

(2)對(duì)其余六類音頻均做上移/下移1個(gè)半步、上移/下移1.5個(gè)半步、上移/下移2個(gè)半步、上移/下移2.5個(gè)半步、上移/下移3.5個(gè)半步操作;增強(qiáng)后的音頻數(shù)量如表1所示。

表1 EMO-DB增強(qiáng)前后音頻數(shù)量

2.3 Mel功率譜圖生成

Mel功率譜圖是原始信號(hào)映射到時(shí)間和頻率區(qū)域的一種二維表示方式,文中使用Python的音頻分析工具包—librosa實(shí)現(xiàn)繪制。首先對(duì)原始音頻信號(hào)yi進(jìn)行分幀操作并使用漢寧窗進(jìn)行加窗;然后按照式(5)逐幀進(jìn)行短時(shí)傅里葉變換(STFT),STFT通過(guò)在短重疊窗口上計(jì)算離散傅里葉變換(DFT)來(lái)表示時(shí)頻域中的信號(hào)。函數(shù)中FFT窗口大小為2 048個(gè)樣本點(diǎn),對(duì)應(yīng)22 050 Hz采樣率下93 ms的持續(xù)時(shí)間;重疊樣本512個(gè),相當(dāng)于22 050 Hz采樣率下23 ms的持續(xù)時(shí)間;對(duì)得到的短時(shí)傅里葉變換矩陣S(是包含幀t處頻率f大小的復(fù)值矩陣)按照式(6)計(jì)算功率譜,其中M為[m,k/2+1]大小的Mel變換矩陣,m代表Mel過(guò)濾器的個(gè)數(shù),k表示fft組件的個(gè)數(shù),將信號(hào)進(jìn)行Mel變換更貼合人耳對(duì)聲音響度的聽覺特性;最終依照式(7)將功率譜圖轉(zhuǎn)化為分貝(db)單位。

S[f,t]=STFT{yi}

(5)

P=M*|S|2

(6)

Pdb=10log10(P/max(S))

(7)

3 實(shí)驗(yàn)設(shè)計(jì)

該實(shí)驗(yàn)在Ubuntu 16.04.5 LTS環(huán)境下運(yùn)行,使用Python版本為3.6.2,在兩塊NVIDIA Tesla P100的GPU上訓(xùn)練三天半。實(shí)驗(yàn)使用keras框架實(shí)現(xiàn),且后端為tensorflow。

3.1 數(shù)據(jù)庫(kù)

Emo-DB(柏林語(yǔ)料庫(kù))是德文情感語(yǔ)料庫(kù),由柏林工業(yè)大學(xué)的10位專業(yè)演員錄制而成。該數(shù)據(jù)庫(kù)包含7類常見情感(憤怒、無(wú)聊、沮喪、恐懼、愉悅、中性、悲傷)的535個(gè)音頻文件,且全部為.wav無(wú)損格式,采樣率由最初的44.1 kHz下采樣至最終的16 kHz。文中實(shí)驗(yàn)時(shí)將語(yǔ)料庫(kù)均采樣為22.05 kHz。

3.2 圖像預(yù)處理

通過(guò)增強(qiáng)后的音頻生成的Mel譜圖共5 377張,較原始的數(shù)量擴(kuò)展了9倍,為進(jìn)一步增強(qiáng)數(shù)據(jù)的豐富性,避免過(guò)擬合現(xiàn)象的發(fā)生,現(xiàn)對(duì)7類數(shù)據(jù)中的每一張譜圖做增強(qiáng)處理。首先,對(duì)圖像進(jìn)行歸一化操作,使像素值限定在0~1之間,避免數(shù)值過(guò)大在傳播的過(guò)程中發(fā)生梯度消失;再次,對(duì)每一張圖片做逆時(shí)針剪切0.2度角、圖像放大0.2、圖像垂直偏移0.1、圖像水平偏移0.1、通道偏移10的操作,至此,每張圖片增強(qiáng)為原來(lái)的5倍。該操作通過(guò)keras框架的ImageDataGenerator類完成。

3.3 eGeMAPS特征集

為對(duì)比深度譜圖特征與手工聲學(xué)特征在語(yǔ)音情感識(shí)別方面的表現(xiàn),提供eGeMAPS特征集用于語(yǔ)音情感識(shí)別任務(wù)。eGeMAPS作為語(yǔ)音情感識(shí)別中經(jīng)典的特征集,是GeMAPS的擴(kuò)展特征集,該表示特征通過(guò)openSMILE[18]開源工具包提取,包含頻率、能量、光譜、倒譜和動(dòng)態(tài)信息在內(nèi)的88個(gè)高級(jí)統(tǒng)計(jì)特征。

3.4 實(shí)驗(yàn)設(shè)置

實(shí)驗(yàn)將5 337張Mel譜圖按7∶1.5∶1.5的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,劃分后的數(shù)量為3 761、810和806。該文對(duì)輸入格式、卷積核數(shù)量、訓(xùn)練批次大小等逐一進(jìn)行設(shè)置,模型的超參數(shù)細(xì)節(jié)如下:

(1)輸入的Mel功率譜圖為128*128大小的三通道彩色圖片,且全部為.png格式。

(2)根據(jù)卷積層特征提取特點(diǎn),淺層卷積層關(guān)注局部的信息特征,深層卷積層關(guān)注更加細(xì)致的整體特征,因此濾波器個(gè)數(shù)分別以32,64和256的順序遞增設(shè)置,以適應(yīng)網(wǎng)絡(luò)特性更好地提取特征。

(3)設(shè)置3*3的卷積核,步長(zhǎng)為1,最大池的大小設(shè)為2*2。

(4)GRU共兩層,單元個(gè)數(shù)依次為126和35。

(5)Dropout系數(shù)設(shè)為0.38,使用Adam優(yōu)化器進(jìn)行優(yōu)化,初始學(xué)習(xí)率為0.000 1,該值過(guò)大會(huì)導(dǎo)致訓(xùn)練過(guò)程中發(fā)生震蕩現(xiàn)象,β1=0.9,β2=0.999。batch_size設(shè)為92,迭代次數(shù)為300次。

4 實(shí)驗(yàn)分析及評(píng)估

實(shí)驗(yàn)將Mel功率譜圖作為CGRU的輸入,利用CNN學(xué)習(xí)譜圖的頻域信息并結(jié)合GRU對(duì)序列信息的捕捉特性學(xué)習(xí)譜圖的時(shí)域特征,從而加強(qiáng)對(duì)Mel功率譜圖的特征提取效果。對(duì)EMO-DB在CGRU上的表現(xiàn)情況如圖3所示。該數(shù)據(jù)集在提出的方法上表現(xiàn)出了不錯(cuò)的性能,訓(xùn)練集通過(guò)迭代訓(xùn)練使精度收斂到0.9以上,損失值穩(wěn)定至0.1左右。使用驗(yàn)證集對(duì)訓(xùn)練模型的效果進(jìn)行驗(yàn)證,發(fā)現(xiàn)驗(yàn)證集的精度和損失值基本與訓(xùn)練集的收斂趨勢(shì)保持一致,精度由0.301 2上升至0.965 4,損失值由1.781 1減小至0.095 5,該結(jié)果顯示出了模型較好的擬合能力。最后,對(duì)該模型在測(cè)試集上的精度和損失值進(jìn)行計(jì)算作為最終的評(píng)估結(jié)果,實(shí)驗(yàn)發(fā)現(xiàn)該模型在測(cè)試集上也具有良好的性能,結(jié)果顯示CGRU在EMO-DB上的精度達(dá)到98.39%,損失減小到0.048。

圖3 EMO-DB損失/精度

文中在相同參數(shù)設(shè)置下對(duì)CLSTM與CGRU的時(shí)間性能做了對(duì)比,考慮到時(shí)序模型存在梯度消失問(wèn)題,因此,將LSTM和GRU層設(shè)為兩層。如表2所示,在相同的模型參數(shù)下,CGRU用時(shí)3.64天完成訓(xùn)練,而CLSTM用了6.22天,比前者多出近一倍時(shí)間,這也符合LSTM與GRU模型自身門的特性,由于GRU比LSTM少了一個(gè)門操作,因此在處理大量數(shù)據(jù)時(shí)時(shí)間要優(yōu)于LSTM。

表2 CLSTM 與CGRU時(shí)間對(duì)比

為了驗(yàn)證傳統(tǒng)手工特征與深度譜特征在語(yǔ)音情感識(shí)別中的作用,在兩組特征集上做了四組對(duì)比試驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示??梢钥闯?,在使用完全相同的訓(xùn)練集與測(cè)試集的情況下,譜圖特征展現(xiàn)出了有競(jìng)爭(zhēng)力的表現(xiàn),兩種方法下的譜圖特征均達(dá)到了90%以上的識(shí)別率。XGBoost作為一種強(qiáng)大的集成算法,相比隨機(jī)森林而言,對(duì)數(shù)據(jù)不太敏感,模型更具魯棒性,在eEeMAPS特征集上比隨機(jī)森林表現(xiàn)出更優(yōu)的性能,精度高出11.79%。實(shí)驗(yàn)顯示,利用深度學(xué)習(xí)方法獲取到的譜圖特征在一定程度上接近甚至超越傳統(tǒng)手工特征的識(shí)別精度。

表3 四種方法在兩種特征下的識(shí)別精度

CGRU利用Mel功率譜圖在深度學(xué)習(xí)方法中對(duì)EMO-DB情感的識(shí)別精度達(dá)到98.39%,超過(guò)了文獻(xiàn)[19]中95.1%的準(zhǔn)確率,也比方法2的精度高出了3.85%。雖然使用Mel功率譜圖特征的CLSTM識(shí)別率低于使用手工特征的XGBoost,但為了便于比較CLSTM與CGRU的模型表現(xiàn),統(tǒng)一將迭代次數(shù)設(shè)置為300,由于LSTM較GRU收斂速度較慢,因此方法3還可繼續(xù)收斂,說(shuō)明了深度學(xué)習(xí)下的譜圖特征較傳統(tǒng)手工特征具有不錯(cuò)的表征能力。

實(shí)驗(yàn)使用混淆矩陣對(duì)柏林語(yǔ)料庫(kù)的Mel功率譜圖特征在CGRU模型上的效果進(jìn)行評(píng)估,矩陣值為歸一化后結(jié)果,其中,橫向代表模型的“預(yù)測(cè)標(biāo)簽”,縱向代表數(shù)據(jù)的“真實(shí)標(biāo)簽”,對(duì)角線數(shù)值表示正確預(yù)測(cè)類別的數(shù)量占預(yù)測(cè)總類別數(shù)量的比率,深色部分表示預(yù)測(cè)效果良好,淺色部分表示預(yù)測(cè)結(jié)果欠佳,結(jié)合混淆矩陣的特性,實(shí)驗(yàn)結(jié)果應(yīng)在對(duì)角線位置呈最深顏色以達(dá)到最佳效果。

由圖4可知,“neutral”的預(yù)測(cè)效果最好,而“disgust”的預(yù)測(cè)效果最差,且大部分被誤分為“fear”類,其主要原因?yàn)樵搩煞N情感在情緒的“動(dòng)機(jī)-維度”模型中均屬于高動(dòng)機(jī)低效價(jià)的情感,二者在情感表達(dá)方面具有一定的相似度,因此在模型識(shí)別時(shí)會(huì)有一定程度的混淆。

圖4 EMO-DB歸一化混淆矩陣

5 結(jié)束語(yǔ)

借鑒深度學(xué)習(xí)的思想,使用深度譜特征代替手工特征,提出在小數(shù)據(jù)集上完成語(yǔ)音情感的深度學(xué)習(xí)建模。利用卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的表征能力,將生成的Mel功率譜圖作為CNN的輸入獲取語(yǔ)音的頻域特征,再結(jié)合語(yǔ)音信號(hào)的時(shí)序特性,加入GRU模型獲取譜圖的時(shí)域特征,以此構(gòu)建一種CGRU的融合模型對(duì)小數(shù)據(jù)集進(jìn)行深度學(xué)習(xí)。實(shí)驗(yàn)在EMO-DB數(shù)據(jù)集上利用譜圖特征與傳統(tǒng)語(yǔ)音情感識(shí)別的聲學(xué)手工特征的識(shí)別結(jié)果相比具有良好的競(jìng)爭(zhēng)力。該方法摒棄了傳統(tǒng)構(gòu)建特征的繁瑣過(guò)程,使用深度學(xué)習(xí)自動(dòng)提取特征。

未來(lái),將注意力放在融合特征方面,結(jié)合深譜特征的潛在信息和聲學(xué)特征的專業(yè)特性構(gòu)造魯棒性更加優(yōu)越的融合特征,以適應(yīng)更廣泛的數(shù)據(jù)集。

猜你喜歡
音頻語(yǔ)音卷積
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
魔力語(yǔ)音
基于MATLAB的語(yǔ)音信號(hào)處理
電子制作(2019年14期)2019-08-20 05:43:38
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于MQ3與MP3的價(jià)廉物美的酒駕語(yǔ)音提醒器
電子制作(2019年9期)2019-05-30 09:42:10
必須了解的音頻基礎(chǔ)知識(shí) 家庭影院入門攻略:音頻認(rèn)證與推薦標(biāo)準(zhǔn)篇
對(duì)方正在輸入……
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
音頻分析儀中低失真音頻信號(hào)的發(fā)生方法
電子制作(2017年9期)2017-04-17 03:00:46
高阳县| 盐边县| 元江| 辛集市| 靖边县| 古田县| 东乡族自治县| 安顺市| 西乡县| 大名县| 梅州市| 弥渡县| 拜城县| 海阳市| 龙陵县| 桃园县| 西城区| 富锦市| 驻马店市| 邵东县| 沂源县| 柳州市| 荔浦县| 连云港市| 阿合奇县| 郁南县| 阳谷县| 南通市| 左云县| 海口市| 虞城县| 丹东市| 犍为县| 瑞昌市| 中宁县| 梨树县| 海南省| 哈密市| 夏河县| 剑阁县| 三门县|