国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

空間約束下自相互注意力的RGB-D顯著目標(biāo)檢測(cè)

2022-07-12 06:46波,3進(jìn)
模式識(shí)別與人工智能 2022年6期
關(guān)鍵詞:模態(tài)約束局部

袁 曉 肖 云 江 波,3 湯 進(jìn)

顯著目標(biāo)檢測(cè)(Salient Object Detection, SOD)[1-3]是從視覺(jué)圖像中定位最顯著目標(biāo)(或區(qū)域)的方法之一.SOD可作為許多其它視覺(jué)任務(wù)的預(yù)處理步驟,如目標(biāo)追蹤[4]、語(yǔ)義分割[5]、行人重識(shí)別[6]等.近年來(lái),研究者們提出很多顯著目標(biāo)檢測(cè)模型[7-8],性能具有大幅提升.但由于背景雜亂、場(chǎng)景復(fù)雜、光照條件不同等因素,像素被錯(cuò)誤分類(lèi),因此SOD目前仍是一個(gè)具有挑戰(zhàn)性的問(wèn)題.

近年來(lái),基于RGB-D的顯著目標(biāo)檢測(cè)越來(lái)越受到人們的關(guān)注,但如何合理、充分利用兩種模態(tài)的信息仍是一個(gè)巨大的挑戰(zhàn).為了結(jié)合RGB信息和深度(Depth)信息進(jìn)行RGB-D顯著目標(biāo)檢測(cè),之前的一些工作主要集中在研究融合策略[9],包括早期融合、特征級(jí)融合和后期結(jié)果融合.

在早期融合模型中,直接融合RGB信息和Depth信息的原始數(shù)據(jù)或低層特征,并輸入一個(gè)統(tǒng)一的模型中.Qu等[10]使用卷積神經(jīng)網(wǎng)絡(luò)(Convolu-tional Neural Network, CNN)融合RGB圖像特征和Depth圖像特征,并使用拉普拉斯傳播得到最終的預(yù)測(cè)結(jié)果.然而,由于兩種模態(tài)的分布差異,這種統(tǒng)一的模型很難進(jìn)一步融合兩種模態(tài)下的數(shù)據(jù).

后期融合方法首先生成兩種模態(tài)的顯著性預(yù)測(cè)圖,再融合兩個(gè)顯著性結(jié)果.Han等[11]提出CTMF(Cross-View Transfer and Multiview Fusion),先利用CNN學(xué)習(xí)RGB圖像和Depth圖像的高級(jí)特征表示,再通過(guò)全連接層融合多視圖特征.

特征級(jí)融合方法[2,7,12]首先使用2個(gè)CNN分別提取RGB圖像特征和Depth圖像特征,再學(xué)習(xí)跨模態(tài)交互,并融入特征學(xué)習(xí)網(wǎng)絡(luò)中,得到最終的顯著性預(yù)測(cè)圖.Chen等[12]引入通道注意力機(jī)制,解決多模態(tài)跨級(jí)別融合問(wèn)題.Piao等[13]提出DMRANet(Depth-Induced Multi-scale Recurrent Attention Network),分別提取RGB圖像特征和Depth圖像特征,再輸入深度細(xì)化模塊進(jìn)行集成.Chen等[14]提出PCA(Progre-ssively Complementarity-Aware Fusion Network),采用特征級(jí)融合策略,設(shè)計(jì)互補(bǔ)感知融合模塊,用于融合多模態(tài)和多尺度特征.此方法避免分布差異問(wèn)題,融合多模態(tài)-多尺度特征和交互信息.

自注意力網(wǎng)絡(luò)模型[15-16]和局部關(guān)系網(wǎng)絡(luò)模型[17-18]廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域.Wang等[19]將非局部思想引入視頻分類(lèi)任務(wù),將所有位置對(duì)某個(gè)位置的特征加權(quán)和作為該位置的響應(yīng)值,以此利用視頻中的長(zhǎng)距離信息.Huang等[20]提出CCNet(Criss-Cross Network),多次計(jì)算當(dāng)前位置與其同行或同列特征的關(guān)系,逐步傳播到全局,大幅降低非局部模型的計(jì)算開(kāi)銷(xiāo)和內(nèi)存占用.Zhang等[21]在空間和通道上進(jìn)行非局部操作,獲得2個(gè)維度的長(zhǎng)距離依賴(lài)關(guān)系.Liu等[22]提出生成對(duì)抗網(wǎng)絡(luò)模型,并引入自注意力機(jī)制,用于生成器網(wǎng)絡(luò)的解碼過(guò)程和判別器網(wǎng)絡(luò)的判別過(guò)程.

綜上所述,RGB-D顯著目標(biāo)檢測(cè)現(xiàn)已快速發(fā)展,并且在性能上取得大幅提升.使用自注意力網(wǎng)絡(luò)模型解決計(jì)算機(jī)視覺(jué)任務(wù)也越來(lái)越受到研究者們的關(guān)注.由于引入全局信息,能獲得更大的感受野,有助于學(xué)習(xí)到更結(jié)構(gòu)化的特征表示,但是目前自注意力網(wǎng)絡(luò)模型在RGB-D顯著目標(biāo)檢測(cè)任務(wù)中的應(yīng)用很少.Liu等[2]提出S2MA(Selective Self-Mutual Attention)模塊,融合RGB圖像特征和Depth圖像特征,集成自注意力和相互注意力以傳播上下文信息.S2MA可提供來(lái)自另一個(gè)模態(tài)的補(bǔ)充信息,克服僅使用單一模態(tài)的局限性.為了降低低質(zhì)量Depth線索的影響,S2MA進(jìn)一步使用選擇機(jī)制,重新加權(quán)相互注意力,過(guò)濾不準(zhǔn)確信息.但是,S2MA中的自注意力機(jī)制采用非局部操作,首先計(jì)算每個(gè)位置的一組空間注意力,再使用這些空間注意力聚合所有位置的特征.由于非局部操作是一種空間上與距離無(wú)關(guān)的操作,傾向于學(xué)習(xí)全局的上下文信息,因此缺乏對(duì)局部空間約束的考慮.Gu等[23]采用約束的自注意力機(jī)制關(guān)注目標(biāo)的局部運(yùn)動(dòng),捕獲單模態(tài)視頻幀中的運(yùn)動(dòng)線索.

鑒于上述情況,本文采用特征級(jí)融合策略,進(jìn)一步考慮空間約束,提出空間約束自相互注意力模塊(Spatial Constrained Self-Mutual Attention, CSMA),實(shí)現(xiàn)RGB-D不同模態(tài)間有效的信息融合.與非局部操作在全局范圍內(nèi)學(xué)習(xí)密集的成對(duì)關(guān)系不同,CSMA關(guān)注查詢(xún)位置周?chē)鷧^(qū)域中的成對(duì)關(guān)系,獲得局部的特征表示.相比非局部操作,CSMA減少內(nèi)存占用和計(jì)算開(kāi)銷(xiāo).與文獻(xiàn)[23]不同,CSMA模塊利用多模態(tài)的補(bǔ)充信息,實(shí)現(xiàn)不同模態(tài)間的信息融合,在獲得局部特征表示的同時(shí),考慮多模態(tài)數(shù)據(jù)的一致性和互補(bǔ)性.

此外,擴(kuò)大感受野在視覺(jué)任務(wù)中應(yīng)用廣泛且有效,同時(shí)在不同的空間約束下獲得的感受野并不一樣.因此本文進(jìn)一步提出金字塔結(jié)構(gòu)的空間約束自相互注意力模塊(Pyramid Spatial Constrained Self-Mutual Attention, PSMA),整合這些不同空間約束下的信息,得到局部和全局的特征表達(dá),實(shí)現(xiàn)多尺度的特征融合.在雙分支CNN網(wǎng)絡(luò)中引入PSMA,提出RGB-D顯著目標(biāo)檢測(cè)方法,融合2個(gè)模態(tài)的信息,完成RGB-D顯著目標(biāo)檢測(cè)任務(wù).實(shí)驗(yàn)表明,本文方法具有較優(yōu)性能.

1 從非局部到金字塔結(jié)構(gòu)的空間約束自相互注意力模塊

1.1 非局部模塊

通用的非局部操作[19]主要包括3步:線性轉(zhuǎn)換、相似度計(jì)算、上下文聚合.將提取的特征X∈RH×W×C作為輸入,特征的通道數(shù)為C,尺寸(高、寬)為H×W.

在線性轉(zhuǎn)換中,分別使用3個(gè)線性轉(zhuǎn)換公式:

θ(X)=XWθ,φ(X)=XWφ,g(X)=XWg,

得到嵌入特征,其中,Wθ∈RC×C1,Wφ∈RC×C1,Wg∈RC×C1,均為可學(xué)習(xí)的權(quán)重矩陣.線性轉(zhuǎn)換使用1×1卷積.在相似度計(jì)算中,非局部操作使用二元函數(shù)f計(jì)算θ和φ中元素之間的相似性.文獻(xiàn)[15]提出f函數(shù)的幾種形式,這里采用點(diǎn)乘形式獲得相似度矩陣:

A=f(X)=θ(X)φ(X)T,

(1)

其中,f(X)∈RHW×HW,元素fi,j表示X中第i個(gè)特征和第j個(gè)特征的相似度.在上下文聚合中,g中的特征通過(guò)加權(quán)求和進(jìn)行聚合[19],即

Y=Ag(X)∈RHW×C1,

并且進(jìn)一步重塑為H×W×C1塊.

為了可以在任何預(yù)訓(xùn)練網(wǎng)絡(luò)中插入非局部模塊,而不破壞它原始的特征,通用的做法是使用殘差連接[19]:

Z=YWZ+X,

其中,WZ∈RC1×C,是一個(gè)可學(xué)習(xí)的參數(shù),初始化為0.

1.2 空間約束自相互注意力模塊

如式(1)所示,非局部模塊中的注意力是由原始特征進(jìn)行線性轉(zhuǎn)換后相乘得到的.對(duì)于多模態(tài)任務(wù),如RGB-D顯著目標(biāo)檢測(cè),可利用多模態(tài)特征獲得更互補(bǔ)的信息.然而,非局部模塊傾向于學(xué)習(xí)與距離無(wú)關(guān)的全局上下文信息,基于文獻(xiàn)[2]和文獻(xiàn)[23],本文進(jìn)一步考慮空間約束,提出空間約束自相互注意力模塊(CSMA),適用于多模態(tài)數(shù)據(jù).CSMA結(jié)構(gòu)如圖1所示.

圖1 CSMA結(jié)構(gòu)圖Fig.1 Structure of CSMA

對(duì)于來(lái)自RGB模態(tài)和Depth模態(tài)的特征Xr∈RH×W×C和Xd∈RH×W×C,和非局部模塊一樣,先使用線性轉(zhuǎn)換公式得到嵌入特征.在此基礎(chǔ)上,查詢(xún)?chǔ)?X)中特征元素xi時(shí),利用φ中xi周?chē)鷧^(qū)域的特征元素Nk,d(i)計(jì)算相似度,k表示xi周?chē)鷧^(qū)域特征采樣數(shù),d表示空洞率.對(duì)于RGB圖像特征,相似度矩陣

同理,對(duì)于Depth圖像特征,相似度矩陣

這2個(gè)相似度矩陣僅由各自模態(tài)的特征計(jì)算得到.由于一些低質(zhì)量的Depth圖像是有噪聲且不準(zhǔn)確的,為了融合不同模態(tài)的特征且抑制模態(tài)中不準(zhǔn)確的信息,本文計(jì)算每個(gè)位置的選擇注意權(quán)重,重新加權(quán)相互注意力,進(jìn)行上下文的傳播[2].首先將Xr和Xd在通道維度上拼接,再使用1×1卷積和softmax激活函數(shù)計(jì)算選擇注意力:

α=softmax(Conv([Xr,Xd]))∈RH×W×2,

最后,通過(guò)殘差連接分別得到2個(gè)模態(tài)特定的輸出:

(2)

1.3 金字塔結(jié)構(gòu)的空間約束自相互注意力模塊

在各種視覺(jué)任務(wù)中,如檢測(cè)和分割,學(xué)習(xí)局部和全局感受野的特征表示對(duì)于模型性能非常重要.為了保持一個(gè)較大的感受野,同時(shí)減少計(jì)算量和內(nèi)存占用,將金字塔的結(jié)構(gòu)[23]應(yīng)用在CSMA中,提出金字塔結(jié)構(gòu)的空間約束自相互注意力模塊(PSMA).

本文整合一組具有不同空洞率d=(d1,d2,…,dn)和周?chē)鷧^(qū)域特征采樣數(shù)k的CSMA{CSMA-di,i=1,2,…,n},構(gòu)成PSMA,可表示為

(3)

與式(2)相似,利用得到的特征Yr和Yd,通過(guò)殘差連接改進(jìn)原始特征Xr和Xd,得到最終輸出:

固定周?chē)鷧^(qū)域特征采樣數(shù)k和空洞率d的單個(gè)CSMA對(duì)不同目標(biāo)有一定限制.相比單個(gè)CSMA,PSMA綜合不同感受野的信息(式(3)),得到局部和全局的特征表示,保留單個(gè)CSMA的局部信息或長(zhǎng)距離信息.

2 RGB-D顯著目標(biāo)檢測(cè)方法

2.1 整體結(jié)構(gòu)

基于PSMA模塊,本文提出RGB-D顯著目標(biāo)檢測(cè)方法,整體結(jié)構(gòu)如圖2所示.

本文網(wǎng)絡(luò)整體為通用的編碼器-解碼器架構(gòu)[24-25],總體上由骨干編碼器、交互編碼器、RGB解碼器、Depth解碼器組成.

具體地,采用ResNet50[26]作為骨干網(wǎng)絡(luò).給定一對(duì)RGB模態(tài)和Depth模態(tài)的輸入圖像,分別得到不同尺度的特征.為了減少參數(shù)和提高網(wǎng)絡(luò)性能,采用1×1卷積,通道降維到64.分別將這些特征表示為

在得到2個(gè)分支的輸出特征之后,為了更好地挖掘不同模態(tài)的共同特征,使用交互編碼器促進(jìn)2個(gè)模態(tài)之間的信息交換.與文獻(xiàn)[27]類(lèi)似,交互編碼器將RGB解碼器和Depth解碼器的拼接特征作為輸入,疊加多個(gè)卷積,提取多層次交互特征,再分別使用不同的卷積,得到適用于RGB解碼器和Depth解碼器的交互信息(如圖2中I).將融合交互特征和主干編碼器的特征直接相加,充分利用不同模態(tài)的特征.在本文方法中,特征交互由多次迭代組成.在第1次迭代中,RGB解碼器和Depth解碼器這2個(gè)分支在不交換信息時(shí)輸出融合特征,從第2次迭代開(kāi)始,將前一次迭代后的拼接特征作為交互編碼器的輸入,從而實(shí)現(xiàn)2個(gè)分支之間的交互融合.

圖2 RGB-D顯著目標(biāo)檢測(cè)網(wǎng)絡(luò)模型的整體結(jié)構(gòu)Fig.2 Architecture of RGB-D salient object detection network

2.2 損失函數(shù)

類(lèi)似于文獻(xiàn)[27],定義損失函數(shù)為所有迭代輸出的總和:

其中,l(k)表示第k次迭代的損失,K表示迭代總數(shù).實(shí)驗(yàn)中每次迭代得到3個(gè)輸出:RGB預(yù)測(cè)圖、Depth預(yù)測(cè)圖、分割預(yù)測(cè)圖.每個(gè)輸出對(duì)應(yīng)一個(gè)損失,l(k)定義為如下3種損失的組合:

3 實(shí)驗(yàn)及結(jié)果分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集與評(píng)估指標(biāo)

實(shí)驗(yàn)選擇如下4個(gè)公開(kāi)的RGB-D基準(zhǔn)數(shù)據(jù)集:NJU2K數(shù)據(jù)集[29](包含1 985個(gè)樣本)、NLPR數(shù)據(jù)集[30](包含1 000個(gè)樣本)、STERE數(shù)據(jù)集[31](包含1 000個(gè)樣本)、SIP數(shù)據(jù)集[32](包含929個(gè)樣本).和之前的一些工作[27-28]一樣,從NLPR、NJU2K數(shù)據(jù)集上分別選取700幅和1 500幅圖像訓(xùn)練本文方法.NJU2K、NLPR數(shù)據(jù)集剩下的圖像及整個(gè)STERE、SIP數(shù)據(jù)集上圖像用于測(cè)試.

本文使用如下5個(gè)廣泛使用的評(píng)估指標(biāo):準(zhǔn)確率-召回率曲線(Precision-Recall, PR)[33], S-mea-sure(Sm)[34], maximum F-measure(Fm)[35], maxi-mum E-measure(Em)[36]和平均絕對(duì)誤差(Mean Absolute Error, MAE)[33,37].

準(zhǔn)確率和召回率定義為

其中,TP表示真正率,FP表示假正率,F(xiàn)N表示假負(fù)率.

Sm計(jì)算預(yù)測(cè)的顯著性結(jié)果和真值圖之間的結(jié)構(gòu)相似性[34],綜合考慮對(duì)象結(jié)構(gòu)和區(qū)域結(jié)構(gòu)的相似性:

Sm=αSobject+(1-α)Sregion,

其中α根據(jù)經(jīng)驗(yàn)設(shè)置為0.5.

Fm計(jì)算平均精度和召回率的調(diào)和平均值[35],定義為

其中,β2如文獻(xiàn)[32]設(shè)置為0.3.

Em捕獲顯著性圖的全局綜合信息和局部像素匹配信息以評(píng)估顯著性二值圖.

MAE測(cè)量所有像素的顯著性預(yù)測(cè)圖和真值圖之間絕對(duì)誤差的平均值[37]:

3.2 參數(shù)設(shè)置

在單個(gè)NVIDIA 1080Ti GPU上用Pytorch實(shí)現(xiàn)并訓(xùn)練本文方法.ImageNet[38]上的預(yù)訓(xùn)練模型用于初始化主干模型ResNet50[26]的參數(shù),同時(shí)去掉最后的池化層和全連接層.其它參數(shù)隨機(jī)初始化.將Res-Net50[26]主干網(wǎng)絡(luò)的最大學(xué)習(xí)速率設(shè)置為0.005,其它部分的最大學(xué)習(xí)速率設(shè)置為0.05.網(wǎng)絡(luò)的特征交互迭代次數(shù)設(shè)置為2.整個(gè)網(wǎng)絡(luò)通過(guò)隨機(jī)梯度下降(Stochastic Gradient Descent, SGD)進(jìn)行端到端訓(xùn)練,動(dòng)量設(shè)置為0.9,權(quán)重衰減設(shè)置為0.000 5.所有圖像統(tǒng)一調(diào)整為352×352,再輸入相應(yīng)的主干網(wǎng)絡(luò)提取特征.所有的訓(xùn)練圖像使用隨機(jī)翻轉(zhuǎn)、旋轉(zhuǎn)和邊界裁減進(jìn)行數(shù)據(jù)增強(qiáng).

本文設(shè)置批次大小為32,訓(xùn)練模型200輪,大約需要10 h.

3.3 對(duì)比算法結(jié)果

為了驗(yàn)證本文方法的有效性,選擇如下13種RGB-D顯著性方法作為對(duì)比方法:S2MA[2]、MMCI(Multi-scale Multi-path Fusion Network with Cross-Modal Interactions)[7]、CTMF[11]、TANet(Three-Stream Attention-Aware Network)[12]、DMRANet[13]、PCA[14]、UC-Net(Uncertainty Network)[24]、SSF(Select, Supple-ment and Focus)[25]、CPFP(Contrast Prior and Fluid Pyramid Integration)[28]、D3Net(Deep Depth-Depura-tor Network)[32]、A2dele(Adaptive and Attentive Depth Distiller)[39]、cmMF(Cross-Modality Feature Modula-tion)[40]、DANet(Depth-Enhanced Attention)[41].

各方法在4個(gè)數(shù)據(jù)集上的指標(biāo)值對(duì)比如表1所示.在4個(gè)基準(zhǔn)數(shù)據(jù)集上,相比S2MA,本文方法取得更好的檢測(cè)結(jié)果,相比其它方法,也獲得更好結(jié)果,這進(jìn)一步表明本文方法的有效性.

表1 各方法在4個(gè)數(shù)據(jù)集上的指標(biāo)值對(duì)比Table 1 Index value comparison of different methods on 4 datasets

各方法在4個(gè)數(shù)據(jù)集上的PR曲線對(duì)比如圖3所示.由圖可知,本文方法準(zhǔn)確率最高.各方法的可視化結(jié)果如圖4所示.由圖可看出,本文方法能有效抑制背景干擾,檢測(cè)更完整的目標(biāo).綜上所述,本文方法可精確定位和分割顯著物體,而其它方法在這些復(fù)雜的場(chǎng)景中會(huì)受到嚴(yán)重干擾.

(a)NLPR (b)NJU2K

(a)RGB圖像 (b)深度圖像(a)RGB images (b)Depth images

3.4 消融實(shí)驗(yàn)

本文方法主要包含2個(gè)模塊:CSMA和PSMA.為了驗(yàn)證這兩個(gè)模塊的有效性,本節(jié)進(jìn)行消融實(shí)驗(yàn).選取2.1節(jié)中不帶PSMA模塊的編碼-解碼架構(gòu)作為本文的基準(zhǔn)方法(baseline).本文將PSMA模塊(k=8,d={0,1,2})、S2MA模塊和單一的CSMA模塊在4個(gè)數(shù)據(jù)集上進(jìn)行對(duì)比,其中S2MA模塊采用非局部操作.還對(duì)比在CSMA操作中使用相同周?chē)鷧^(qū)域采樣(k=8) 和不同空洞率d,具體結(jié)果如表2所示,表中黑體數(shù)字表示最優(yōu)值.由表可知,添加CSMA模塊時(shí),隨著空洞率d的增加,各項(xiàng)指標(biāo)值無(wú)明顯提升.d較小時(shí),更能關(guān)注局部信息,但缺少長(zhǎng)距離信息;d較大時(shí),可擴(kuò)大感受野,得到長(zhǎng)距離關(guān)系,但是會(huì)缺失周?chē)従拥男畔?PSMA(k=8,d={0,1,2})集成不同空間約束下的信息,在擴(kuò)大感受野的同時(shí)也能關(guān)注局部,得到更互補(bǔ)的信息,因此性能優(yōu)于單一CSMA操作.

表2 增加不同模塊時(shí)各方法在4個(gè)數(shù)據(jù)集上的指標(biāo)值對(duì)比Table 2 Index value comparison of different models on 4 datasets

4結(jié) 束 語(yǔ)

本文提出空間約束下自相互注意力的RGB-D顯著目標(biāo)檢測(cè)方法.引入金字塔結(jié)構(gòu)的空間約束自相互注意力模塊(PSMA),學(xué)習(xí)多模態(tài)圖像的空間上下文和多模態(tài)感知特征表示.PSMA可嵌入任何多模態(tài)任務(wù)的學(xué)習(xí)框架.PSMA由一組空間約束自相互注意力模塊(CSMA)組成,學(xué)習(xí)查詢(xún)位置周?chē)鷧^(qū)域中的成對(duì)關(guān)系,充分利用多模態(tài)特征在空間上的互補(bǔ)信息,金字塔結(jié)構(gòu)可整合一組CSMA特征,適應(yīng)不同空間約束下的特征.實(shí)驗(yàn)表明,本文方法具有較優(yōu)性能.今后將進(jìn)一步研究多模態(tài)特征融合方法.Transformer模型具有建立長(zhǎng)距離依賴(lài)關(guān)系的優(yōu)勢(shì),可考慮用于多模態(tài)特征融合,進(jìn)一步提升RGB-D顯著性檢測(cè)性能.

猜你喜歡
模態(tài)約束局部
聯(lián)合仿真在某車(chē)型LGF/PP尾門(mén)模態(tài)仿真上的應(yīng)用
EASY-EV通用底盤(pán)模態(tài)試驗(yàn)
日常的神性:局部(隨筆)
凡·高《夜晚露天咖啡座》局部[荷蘭]
模態(tài)可精確化方向的含糊性研究
馬和騎師
丁學(xué)軍作品
基于CAE的模態(tài)綜合法誤差分析
CAE軟件操作小百科(11)
局部求解也生動(dòng)
偏关县| 仁化县| 宁河县| 南和县| 磴口县| 绵阳市| 莱芜市| 桑日县| 定襄县| 建宁县| 梁平县| 马边| 抚顺市| 西林县| 乌兰浩特市| 泸水县| 民乐县| 鄯善县| 澜沧| 乐亭县| 卓尼县| 海南省| 饶平县| 新安县| 密山市| 岫岩| 和平县| 奉化市| 迁安市| 盐边县| 余江县| 迭部县| 黑山县| 灌阳县| 通渭县| 承德县| 龙南县| 邵阳市| 南雄市| 公安县| 建湖县|