国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場(chǎng)模型的PolSAR圖像地物分類方法

2019-08-07 00:42李衛(wèi)華秦先祥余旺盛
雷達(dá)學(xué)報(bào) 2019年4期
關(guān)鍵詞:特征提取卷積精度

胡 濤 李衛(wèi)華 秦先祥* 王 鵬 余旺盛 李 軍

①(空軍工程大學(xué)信息與導(dǎo)航學(xué)院 西安 710077)

②(國(guó)防科技大學(xué)電子對(duì)抗學(xué)院 合肥 230037)

1 引言

極化合成孔徑雷達(dá)(Polarimetric Synthetic Aperture Radar, PolSAR)是一種先進(jìn)的遙感信息獲取手段[1]。與單極化相比,它通過(guò)測(cè)量每個(gè)分辨單元在不同收發(fā)極化組合下的散射特性,更完整地記錄了目標(biāo)后向散射信息,為詳盡分析目標(biāo)散射特性提供了良好的數(shù)據(jù)支持[2]。PolSAR圖像地物分類的目的在于將圖像劃分成一系列具有特定語(yǔ)義信息的圖像區(qū)域,是PolSAR圖像理解和解譯過(guò)程中的重要內(nèi)容[3]。

傳統(tǒng)的PolSAR圖像地物分類方法主要通過(guò)目標(biāo)分解和統(tǒng)計(jì)分布來(lái)實(shí)現(xiàn)。極化數(shù)據(jù)的目標(biāo)分解方法有很多,如Cloude分解[4]和Freeman分解等[5]。統(tǒng)計(jì)分布模型主要有Wishart分布[6]和K分布[7]等。Lee等人[6]將目標(biāo)分解和分布模型結(jié)合,提出了-Wishart方法,有效提高了地物分類精度。然而,這類方法沒(méi)有考慮圖像的上下文信息,易受相干斑噪聲影響,因此很多研究者開(kāi)始關(guān)注利用上下文信息的地物分類方法[3,8]。文獻(xiàn)[3]在融合極化特征的基礎(chǔ)上通過(guò)條件隨機(jī)場(chǎng)(Conditional Random Field, CRF)模型利用上下文信息,能夠得到區(qū)域一致性好的結(jié)果。上述方法利用的特征主要包括基于極化矩陣的組合變換、基于目標(biāo)分解理論的特征參數(shù)和紋理特征等[9]。這些特征通常是針對(duì)具體問(wèn)題進(jìn)行設(shè)計(jì),對(duì)先驗(yàn)知識(shí)的依賴程度較高,在很多情況下其表征能力往往不盡人意。解決該問(wèn)題的一種常用思路是從PolSAR圖像中提取多種特征向量堆疊成一個(gè)高維特征向量用于地物分類,但提取的高維特征往往包含大量冗余不相關(guān)信息,將導(dǎo)致部分特征向量的分類能力減弱或喪失[10]。因此,如何提取更具表達(dá)性的特征是當(dāng)前提高圖像地物分類方法性能的關(guān)鍵途徑。

目前,深度學(xué)習(xí)技術(shù)在PolSAR圖像處理任務(wù)上的應(yīng)用受到普遍關(guān)注,自編碼器[11](Auto Encoders,AE)、深度信念網(wǎng)絡(luò)[12](Deep Belief Network, DBN)和卷積神經(jīng)網(wǎng)絡(luò)[13](Convolutional Neural Network,CNN)等多種深度神經(jīng)網(wǎng)絡(luò)模型相繼用于PolSAR圖像處理,其中CNN在圖像處理中應(yīng)用最為廣泛。近年來(lái)有很多學(xué)者將CNN用于PolSAR圖像地物分類[14-16]。由于CNN網(wǎng)絡(luò)輸入一般為實(shí)數(shù),在考慮相干矩陣各元素的基礎(chǔ)上,文獻(xiàn)[14]將PolSAR圖像的復(fù)數(shù)相干矩陣轉(zhuǎn)換為6維實(shí)向量來(lái)作為CNN模型的輸入,提升了地物分類精度。文獻(xiàn)[15]將CNN推廣到復(fù)數(shù)域,有效利用了PolSAR圖像通道間相干相位差蘊(yùn)含的豐富信息。盡管上述基于深度學(xué)習(xí)的方法在地物分類精度上取得了顯著提升,但與基于傳統(tǒng)人工特征的方法相比,這些方法實(shí)現(xiàn)地物分類的速度普遍較慢。

針對(duì)圖像地物分類問(wèn)題,一些學(xué)者設(shè)計(jì)了直接實(shí)現(xiàn)光學(xué)圖像地物分類的CNN模型,并展現(xiàn)出優(yōu)異的性能[17-19]??紤]到不同類型圖像之間往往存在共性,可認(rèn)為,一個(gè)經(jīng)過(guò)大型數(shù)據(jù)量訓(xùn)練好的CNN的前端網(wǎng)絡(luò)可以作為圖像特征提取的有效模型[20]?;诖瞬⒖紤]到CRF的多特征和上下文信息利用優(yōu)勢(shì),本文提出一種結(jié)合預(yù)訓(xùn)練CNN和CRF模型的圖像地物分類方法。首先利用經(jīng)典的CNN模型-VGGNet-16來(lái)提取圖像深層次特征,再通過(guò)CRF對(duì)多特征及上下文信息有效利用來(lái)完成圖像的地物分類。

2 深度CRF模型

針對(duì)傳統(tǒng)圖像地物分類方法受限于人工特征表征能力不強(qiáng)的問(wèn)題,本文提出一種基于深度CRF模型的圖像地物分類方法,采用VGG-Net-16提取圖像深度特征,將提取到的特征用于訓(xùn)練CRF模型,實(shí)現(xiàn)圖像地物分類。具體流程如圖1所示,主要包含圖像預(yù)處理、深度特征提取和分類3個(gè)階段。

2.1 極化SAR圖像預(yù)處理

對(duì)于PolSAR數(shù)據(jù), 每個(gè)像素點(diǎn)用T矩陣的9維向量來(lái)表示如式(1)

圖1 深度CRF模型流程圖Fig. 1 The flow chart of deep CRF model

2.2 深度特征提取

VGG-Net-16[19]是一種用于實(shí)現(xiàn)圖像分類任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)。其中的“16”表示該模型需要學(xué)習(xí)參數(shù)的層數(shù)。VGG-Net-16主要由5個(gè)卷積層(conv)(共13層)和3個(gè)連接層組成。其中,從conv1到conv5每組卷積層分別包含2, 2, 3, 3, 3層卷積,每個(gè)卷積層都使用尺寸為3×3的卷積核。在ImageNet數(shù)據(jù)集上訓(xùn)練后,VGG-Net-16中每個(gè)卷積層都可以作為一個(gè)特征提取器,提取目標(biāo)不同層級(jí)的特征表達(dá)。

VGG-Net-16模型要求輸入圖像尺寸為224×224,因此,需要將其分割為多個(gè)不重疊的尺寸為224×224的小圖像,再將這些圖像輸入到VGGNet-16中提取深度特征,其中,VGG-Net-16是在ImageNet數(shù)據(jù)集上已經(jīng)完成預(yù)訓(xùn)練的網(wǎng)絡(luò)。當(dāng)輸入圖像尺寸小于224×224時(shí),需要在輸入數(shù)據(jù)的邊界進(jìn)行補(bǔ)0操作。將所有小圖像利用VGG-Net-16提取完特征后,由于VGG-Net-16模型中的池化(pooling)操作,會(huì)使得提取到的深度特征的尺寸小于輸入圖像。采用的CRF模型需將提取到的特征與輸入圖像每個(gè)像素點(diǎn)逐一對(duì)應(yīng),因此將VGG-Net-16模型中提取到的特征圖采用雙線性插值方法上采樣到原圖像大小,然后將這些特征圖重新拼接,最終得到與實(shí)驗(yàn)圖像同尺寸的多維特征圖,即可認(rèn)為,為實(shí)驗(yàn)圖像中的每個(gè)像素點(diǎn)提取到多維深度特征。在VGG-Net-16前5層提取的特征都是由多張?zhí)卣鲌D組成,故前5層都可作為特征提取層。VGG-Net-16后3層為全連接層,提取到的特征都是1維列向量,不適合作為訓(xùn)練本文CRF模型的特征。

2.3 CRF模型建立

勢(shì)函數(shù)階數(shù)的確定與實(shí)驗(yàn)需求緊密相關(guān),階數(shù)越高,可表征越大范圍節(jié)點(diǎn)間的相關(guān)性,但模型復(fù)雜度也會(huì)隨之提升。常用做法是僅定義單位置和雙位置勢(shì)函數(shù)[3,24],既可兼顧性能,模型復(fù)雜度也不會(huì)過(guò)高。因此,式(2)可改寫為

3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

為驗(yàn)證本算法有效性,在實(shí)驗(yàn)中主要選取以下與文中方法進(jìn)行對(duì)比:基于Cloude分解和Freeman分解所得特征的CRF分類(簡(jiǎn)稱方法1);基于Freeman分解和協(xié)方差矩陣對(duì)角線元素所得特征的CRF分類(簡(jiǎn)稱方法2);將上述兩種方法中的特征串聯(lián)融合所得特征的CRF分類(簡(jiǎn)稱方法3);基于Freeman分解和協(xié)方差矩陣對(duì)角線元素所得特征的SVM分類[24](簡(jiǎn)稱方法4);一種基于CNN的方法[14](簡(jiǎn)稱方法5)。

表1給出了實(shí)驗(yàn)中傳統(tǒng)方法用到的特征類型。本文方法選擇提取VGG-Net-16模型conv5-3層特征進(jìn)行對(duì)比實(shí)驗(yàn)。有關(guān)不同卷積層特征對(duì)算法性能的影響將在第3.3節(jié)進(jìn)行分析。本文方法的特征提取在MatConvNet[26]深度學(xué)習(xí)平臺(tái)上完成。參數(shù)估計(jì)過(guò)程中的最大迭代次數(shù)設(shè)置為1000次。分類性能綜合評(píng)估指標(biāo)為總體分類精度(Overall Accuracy,OA)、Kappa系數(shù)[9]、訓(xùn)練時(shí)間和測(cè)試時(shí)間。為減少相干斑噪聲的影響,本文實(shí)驗(yàn)數(shù)據(jù)經(jīng)過(guò)Lee濾波處理[27]。所有實(shí)驗(yàn)在配置為Intel Core i7 2.80 GHz處理器和8 GB內(nèi)存的計(jì)算機(jī)上完成。

3.1 基于Flevoland數(shù)據(jù)的實(shí)驗(yàn)結(jié)果

第1個(gè)實(shí)驗(yàn)數(shù)據(jù)是1989年NASA/JP實(shí)驗(yàn)AIRSAR系統(tǒng)獲得的L波段完整PolSAR圖像的一部分,該數(shù)據(jù)被廣泛用于評(píng)估PolSAR圖像地物分類算法性能。圖2(a)為其Pauli RGB合成圖,其尺寸為750×1024像素。包括11類作物,分別為:豆類、森林、油菜籽、裸地、土豆、甜菜、小麥、豌豆、苜蓿、草地和水域。真實(shí)地物分布參考圖如圖2(b)所示,空白區(qū)域?yàn)槲礃?biāo)記類別,選取10%的有標(biāo)記數(shù)據(jù)用于訓(xùn)練,所有帶標(biāo)記的數(shù)據(jù)作為測(cè)試數(shù)據(jù)。實(shí)驗(yàn)結(jié)果如圖2所示。

表1 傳統(tǒng)方法中用到的特征Tab. 1 The features used in the traditional methods

從圖2可見(jiàn),本文所提方法相對(duì)其他4種基于傳統(tǒng)特征方法明顯錯(cuò)分較少。方法1對(duì)油菜籽和豌豆分類效果較差,方法3對(duì)油菜籽和水體的分類效果較差。方法4對(duì)土豆的分類效果較差。方法2相較于方法1、方法3和方法4取得了更好的分割效果,其中方法2和方法4采用相同的特征,而利用CRF分類的方法2精度要高于利用SVM分類的方法4,說(shuō)明CRF模型對(duì)多特征和上下文信息的利用有助于提高分類精度。而從目視效果上看,本文方法要優(yōu)于方法2,方法5的分類效果最好。

表2給出了定量評(píng)估數(shù)據(jù),可見(jiàn)本文所提方法取得了高于傳統(tǒng)方法的總體分類精度0.905和Kappa系數(shù)0.890,所有類別的分類精度都在0.8以上,大部分在0.9以上。并且在苜蓿、小麥、甜菜、油菜籽、豌豆和草地均取得了高于傳統(tǒng)方法的分類精度。此外,從表2可見(jiàn),與方法5相比,本文所提方法的總體分類精度稍低,這可能是由于本方法所用的特征提取模型是預(yù)訓(xùn)練模型,對(duì)總體分類精度存在一定程度的影響,但本方法需訓(xùn)練的參數(shù)少于方法5,訓(xùn)練時(shí)間和測(cè)試時(shí)間都遠(yuǎn)比方法5短,說(shuō)明本文所提方法具有更高的實(shí)時(shí)性。

圖2 Flevoland數(shù)據(jù)分類結(jié)果對(duì)比圖Fig. 2 Comparison of Flevoland data classification results

表2 Flevoland數(shù)據(jù)分類精度Tab. 2 The classification accuracy of Flevoland data

3.2 基于Oberpfaffenhofen數(shù)據(jù)的實(shí)驗(yàn)結(jié)果

為進(jìn)一步驗(yàn)證本文所提方法提取深度特征的有效性,在Oberpfaffenhofen數(shù)據(jù)下將本文方法與3種基于傳統(tǒng)特征和CRF模型的方法進(jìn)行對(duì)比。圖3(a)為Oberpfaffenhofen數(shù)據(jù)Pauli RGB合成圖,圖像的大小為1300×1200像素。真實(shí)地物分布參考圖如圖3(b)所示。包括3類語(yǔ)義類別:建筑區(qū)域、林地和開(kāi)放區(qū)域??瞻讌^(qū)域?yàn)槲礃?biāo)記類別,實(shí)驗(yàn)中選取10%的有標(biāo)記數(shù)據(jù)用于訓(xùn)練,所有帶標(biāo)記的數(shù)據(jù)作為測(cè)試數(shù)據(jù)。實(shí)驗(yàn)結(jié)果如圖3所示。

從圖3可見(jiàn),本文所提方法整體效果優(yōu)于其他3種對(duì)比方法。對(duì)于開(kāi)放區(qū)域,本文方法最好,由于開(kāi)放區(qū)域的散射機(jī)制與建筑區(qū)域相對(duì)接近,其余3種方法一定程度上都將其錯(cuò)分為建筑區(qū)域,如圖中三角形區(qū)域所示。本文方法由于提取的是圖像不同層次的抽象特征,有效地避免了這種現(xiàn)象。對(duì)于建筑區(qū)域,本文同樣得到最好的分割效果,其余3種方法均不同程度將該區(qū)域錯(cuò)分為林地或開(kāi)放區(qū)域,如圖中橢圓區(qū)域所示。對(duì)于林地區(qū)域,3種方法均取得較好結(jié)果,其中方法3的效果最差,可能是由于融合的高維特征存在一定冗余,對(duì)該類別的區(qū)分性低于其他特征。

本文計(jì)算了各個(gè)方法中每類地物分類的準(zhǔn)確率,并用總體分類精度和Kappa系數(shù)進(jìn)行綜合評(píng)估,如表3所示。從表中可見(jiàn),本文方法取得了最高的分類精度0.903和Kappa系數(shù)0.834,并且在建筑和開(kāi)放區(qū)域上的分類精度均為最高。

從上面兩個(gè)實(shí)驗(yàn)結(jié)果可見(jiàn),將多組特征串聯(lián)所得高維特征的表征能力可能低于低維特征的表征能力。例如,在第1個(gè)實(shí)驗(yàn)中,方法3的性能要低于方法1,在第2個(gè)實(shí)驗(yàn)中,方法3的性能要低于方法2。說(shuō)明提取的高維特征包含了冗余信息,導(dǎo)致了部分特征向量的分類能力減弱。而本文所提方法在兩組實(shí)驗(yàn)中均取得了最優(yōu)的分類結(jié)果,說(shuō)明CNN特征相對(duì)于傳統(tǒng)特征具有更強(qiáng)的表征能力,利用CNN特征可以有效提升分類性能。

圖3 Oberpfaffenhofen數(shù)據(jù)分類結(jié)果對(duì)比圖Fig. 3 Comparison of Oberpfaffenhofendata classification results

表3 Oberpfaffenhofen數(shù)據(jù)分類精度Tab. 3 The classification accuracy of Oberpfaffenhofen data

3.3 VGG模型特征層選擇

為了比較VGG-Net-16模型中哪一層特征更具表達(dá)力,以便選擇合適的特征提取層,提取conv5-3,conv4-3, conv3-3, conv2-2和conv1-2層特征進(jìn)行實(shí)驗(yàn)并做精度評(píng)價(jià),在Oberpfaffenhofen數(shù)據(jù)集下進(jìn)行測(cè)試的結(jié)果如圖4所示。實(shí)驗(yàn)中,采取同樣的方式將實(shí)驗(yàn)數(shù)據(jù)分割成多個(gè)尺寸為224×224的不重疊的圖像,再輸入到VGG-Net-16模型中提取特征。特征提取在MatConvNet深度學(xué)習(xí)平臺(tái)上完成。VGG-Net-16前5層中,每層提取的特征都是由多張?zhí)卣鲌D組成,如conv2-2層的特征為128張尺寸為112×112的特征圖,插值到輸入圖像大小后,得到128張尺寸為224×224的特征圖,相當(dāng)于對(duì)輸入圖像的每一個(gè)像素點(diǎn)提取一個(gè)128維的特征向量。

圖4 不同層特征分類精度對(duì)比圖Fig. 4 Accuracy comparison results of different layer classification results

從圖4的分類結(jié)果精度對(duì)比圖可見(jiàn):在Oberpfaffenhofen數(shù)據(jù)下,隨著卷積層層數(shù)深度增加,分類精度呈上升趨勢(shì),在conv5-3層達(dá)到最高。這是因?yàn)閂GG-Net-16模型中更深層特征更抽象,具有更高層次的語(yǔ)義信息。此外,conv1層特征對(duì)應(yīng)的分類精度遠(yuǎn)低于其他幾層特征對(duì)應(yīng)的分類精度,甚至低于一些利用傳統(tǒng)特征的方法,這是因?yàn)榈?層提取的特征都是些低級(jí)特征,如邊緣、角點(diǎn)等。因此,在本文所提方法中,VGG-Net-16模型特征提取層選擇conv5-3層。由于Oberpfaffenhofen數(shù)據(jù)與Flevoland數(shù)據(jù)中的圖像存在一定共性,因此不再針對(duì)Flevoland數(shù)據(jù)進(jìn)行不同層特征精度比較,同樣選擇conv5-3層作為特征提取層。

4 結(jié)論

本文提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場(chǎng)的PolSAR圖像地物分類方法。本方法利用卷積神經(jīng)網(wǎng)絡(luò)提取深度特征,再通過(guò)條件隨機(jī)場(chǎng)對(duì)多特征及上下文信息有效利用來(lái)實(shí)現(xiàn)PolSAR圖像地物分類。實(shí)驗(yàn)結(jié)果表明,在利用VGG-Net-16模型提取特征進(jìn)行圖像地物分類時(shí),conv5-3層為最有效的特征提取層。此外,與3種利用傳統(tǒng)經(jīng)典特征的方法相比,本文得到了精度最高的分割結(jié)果,說(shuō)明了本文所提方法的有效性。

猜你喜歡
特征提取卷積精度
基于不同快速星歷的GAMIT解算精度分析
熱連軋機(jī)組粗軋機(jī)精度控制
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
一種并行不對(duì)稱空洞卷積模塊①
空間目標(biāo)的ISAR成像及輪廓特征提取
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
基于特征提取的繪本閱讀機(jī)器人設(shè)計(jì)方案
從濾波器理解卷積
基于MED—MOMEDA的風(fēng)電齒輪箱復(fù)合故障特征提取研究
襄樊市| 射洪县| 广宗县| 海城市| 梨树县| 高阳县| 通城县| 搜索| 明水县| 龙川县| 新竹县| 威海市| 北海市| 天津市| 顺昌县| 阳新县| 钦州市| 玉树县| 东乡| 盐池县| 尼勒克县| 榆中县| 阿克苏市| 贡嘎县| 兴义市| 长葛市| 界首市| 三河市| 汉川市| 柳林县| 石首市| 潞城市| 济源市| 永寿县| 呼和浩特市| 城固县| 乌苏市| 武安市| 双江| 舒兰市| 温州市|