劉艷飛,丁樂(lè)樂(lè),孟凡效,孫叔民
(1.天津市勘察設(shè)計(jì)院集團(tuán)有限公司,天津 300000;2.萬(wàn)方星圖(北京)數(shù)碼科技有限公司,北京 102218)
隨著對(duì)地觀測(cè)技術(shù)的快速發(fā)展,高分辨率遙感影像已經(jīng)可以大量獲取,為地理國(guó)情普查、精細(xì)農(nóng)業(yè)、環(huán)境監(jiān)測(cè)等提供了堅(jiān)實(shí)的數(shù)據(jù)基礎(chǔ)。相較于中低分辨率遙感,高分辨率遙感呈現(xiàn)了更加精細(xì)的空間細(xì)節(jié)信息[1-3],使得遙感地物目標(biāo)的精細(xì)識(shí)別成為可能。然而隨著空間分辨率的提高,高分辨率影像也面臨著可用波段少、地物目標(biāo)可變性大等問(wèn)題,為其分類(lèi)帶來(lái)了挑戰(zhàn)[4]。如何提取有效特征提高地物識(shí)別精度已經(jīng)成為當(dāng)前高分辨率遙感影像處理領(lǐng)域的研究熱點(diǎn)之一。目前高分辨率遙感影像已經(jīng)發(fā)展出了基于頻譜變換的分類(lèi)方法[5]、基于條件隨機(jī)場(chǎng)的方法[6-7]、面向?qū)ο蟮姆诸?lèi)方法[8-10]等。如Zhao等[11]利用面向?qū)ο蟮姆椒▽?duì)條件隨機(jī)場(chǎng)的分類(lèi)結(jié)果進(jìn)行融合,提高了高分辨率遙感影像分類(lèi)結(jié)果。Li等[12]將面向?qū)ο笥糜诘乇砀采w提取,獲得了比基于像素的方法更高的分類(lèi)精度。然而以上方法都需要人工設(shè)計(jì)特征,特征設(shè)計(jì)過(guò)程依賴(lài)專(zhuān)家先驗(yàn)知識(shí),且特征表達(dá)能力有限。
深度學(xué)習(xí)作為一種數(shù)據(jù)驅(qū)動(dòng)的模型方法,可以有效地從數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征,無(wú)需專(zhuān)家先驗(yàn),已經(jīng)被成功應(yīng)用于道路提取、建筑物提取[13]、目標(biāo)檢測(cè)[14-15]、場(chǎng)景分類(lèi)[16-17]等領(lǐng)域。如Lu等[18]通過(guò)構(gòu)建多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)同時(shí)提取道路和道路中心線(xiàn),利用任務(wù)之間的相關(guān)性來(lái)提高道路提取精度。為融合多層卷積特征,Mou等[19]提出空間關(guān)聯(lián)模塊和通道關(guān)聯(lián)模塊用于構(gòu)建深度卷積網(wǎng)絡(luò)模型,學(xué)習(xí)、推理任意2個(gè)空間位置或特征圖之間的全局關(guān)系,提取關(guān)系增強(qiáng)特征。Tong等[20]利用網(wǎng)絡(luò)遷移技術(shù)采用已經(jīng)在其他數(shù)據(jù)集上經(jīng)過(guò)預(yù)訓(xùn)練的網(wǎng)絡(luò)作為初始化參數(shù)進(jìn)行微調(diào)訓(xùn)練,獲得了比傳統(tǒng)方法更優(yōu)的語(yǔ)義分割精度。
相較于傳統(tǒng)方法,基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率影像分割方法已經(jīng)取得了更優(yōu)的語(yǔ)義分割效果,但是由于高分辨率遙感影像中存在同類(lèi)地物方差增大、類(lèi)間方差減小的問(wèn)題,利用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行高分辨率影像語(yǔ)義分割仍然面臨分類(lèi)混淆的問(wèn)題。針對(duì)這一問(wèn)題,本文提出了基于深度辨別性增強(qiáng)網(wǎng)絡(luò)的高分辨率影像語(yǔ)義分割算法(discriminability improved convolutional neural networks,DICNN),用于提高深度特征的可辨別能力。在DICNN中,在傳統(tǒng)分類(lèi)器Softmax的基礎(chǔ)上加入相似度懲罰因子,使得同類(lèi)像素樣本特征向量向其類(lèi)別中心靠近,從而增加深度特征的可辨別性。
傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)主要包含卷積層、池化層、全連接層等構(gòu)成單元。卷積層、池化層用于提取局部特征,全連接層對(duì)卷積層和池化層得到的局部特征進(jìn)行聚集,獲得全局特征。然而將卷積神經(jīng)網(wǎng)絡(luò)用于高分辨率影像語(yǔ)義分割時(shí),需要分類(lèi)的對(duì)象是像素,即基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率影像語(yǔ)義分割是像素級(jí)別的分類(lèi),一般不需要影像全局特征。同時(shí),為了保證輸入數(shù)據(jù)和輸出數(shù)據(jù)的大小一致,需要將全連接層從卷積神經(jīng)網(wǎng)絡(luò)中剔除。圖1為基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率影像語(yǔ)義分割的基本流程,主要包括數(shù)據(jù)預(yù)處理、深度特征提取和分類(lèi)3個(gè)部分。
圖1 基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率影像語(yǔ)義分割一般流程圖
數(shù)據(jù)預(yù)處理階段主要指歸一化處理,使像素值落在某一區(qū)間。本文將每一像素除以255,使其落在[0,1]區(qū)間。
深度特征提取階段對(duì)輸入的圖像通過(guò)卷積、池化等操作進(jìn)行逐層特征提取。在利用卷積層和池化層進(jìn)行特征提取階段會(huì)造成細(xì)節(jié)信息的丟失,為保證影像細(xì)節(jié)信息,提高分類(lèi)精度,目前已經(jīng)發(fā)展出了Unet、D-LinkNet[21]、HRNet[22]等網(wǎng)絡(luò)模型。
分類(lèi)部分負(fù)責(zé)輸出像素分類(lèi)分布概率,常用Softmax作為分類(lèi)器。Softmax作為二元邏輯回歸的擴(kuò)展,主要用于多元分類(lèi)。對(duì)于一個(gè)具有n個(gè)類(lèi)別的分類(lèi)任務(wù),分類(lèi)器Softmax輸出n元向量,每一元素代表待分類(lèi)樣本屬于某一類(lèi)的概率。
卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程分為前向與后向階段。前向階段主要包括預(yù)處理計(jì)算、特征提取和分類(lèi)概率預(yù)測(cè)。后向階段是根據(jù)分類(lèi)器Softmax計(jì)算損失誤差,然后利用鏈?zhǔn)角髮?dǎo)法則進(jìn)行梯度計(jì)算和網(wǎng)絡(luò)參數(shù)更新。高分辨率遙感影像往往呈現(xiàn)出同類(lèi)地物方差大、類(lèi)間方差小的問(wèn)題,限制了基于深度卷積神經(jīng)網(wǎng)絡(luò)高分影像語(yǔ)義分割的進(jìn)一步提升。針對(duì)這個(gè)問(wèn)題,本文提出了深度辨別性增強(qiáng)網(wǎng)絡(luò)用于高分辨率遙感影像語(yǔ)義分割。在分析了基于卷積神經(jīng)網(wǎng)絡(luò)語(yǔ)義分割原理的基礎(chǔ)上,在分類(lèi)器Softmax中加入相似度懲罰因子,使得像素樣本對(duì)應(yīng)的特征向其類(lèi)別中心靠攏,增加特征辨別性,進(jìn)而提升基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率語(yǔ)義分割精度。
為提高深度特征的可辨別性,本文提出了基于深度辨別性增強(qiáng)網(wǎng)絡(luò)的高分辨率影像語(yǔ)義分割分類(lèi)方法,其訓(xùn)練流程圖如圖2所示,主要包括數(shù)據(jù)預(yù)處理、深度特征提取、相似度計(jì)算、最小化損失函數(shù)計(jì)算4個(gè)部分。
設(shè)卷積神經(jīng)網(wǎng)絡(luò)中每一層的輸出為zl∈RHl×Wl×Cl,其中l(wèi)為每一層網(wǎng)絡(luò)的序列號(hào)。對(duì)一個(gè)具有L層的網(wǎng)絡(luò)來(lái)說(shuō),l的取值為1至L。Hl、Wl和Cl分別代表該層網(wǎng)絡(luò)輸出特征圖的行、列和通道數(shù)。記輸入影像為z0∈RH0×W0×C0,其中H0、W0和C0分別為輸入影像的行、列以及通道數(shù),在本文中使用RGB三通道影像,因此C0為3,輸入影像大小設(shè)置為300像素×300像素,因此H0和W0都設(shè)置為300。
在數(shù)據(jù)預(yù)處理階段,本文將原始高分辨率影像像素值除以255使其落在[0,1]區(qū)間,同時(shí)為了增加數(shù)據(jù)的多樣性對(duì)其進(jìn)行隨機(jī)左右翻轉(zhuǎn)以及鏡像等操作,之后將經(jīng)過(guò)上述處理的數(shù)據(jù)輸入到深度網(wǎng)絡(luò)中進(jìn)行特征提取。
在特征提取階段,本文采用HRNet用于高分辨率遙感影像特征提取,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。HRNet包含4個(gè)網(wǎng)絡(luò)分支用于提取不同尺度的特征,在最后一層將多尺度特征進(jìn)行疊加融合,其基本構(gòu)成主要包括卷積層和上采樣層。
圖2 基于深度辨別性增強(qiáng)網(wǎng)絡(luò)的高分影像語(yǔ)義分割訓(xùn)練流程圖
圖3 本文采用網(wǎng)絡(luò)HRNet
對(duì)于第l層卷積網(wǎng)絡(luò),假設(shè)其輸入數(shù)據(jù)為zl-1∈RHl-1×Wl-1×Cl-1(Hl-1、Wl-1和Cl-1分別代表輸入數(shù)據(jù)的行、列以及通道數(shù)),具有Cl個(gè)卷積核,其第s個(gè)卷積核為wl,s∈Rker×ker×Cl-1(ker為卷積核的大小),則該卷積層的卷積過(guò)程可表達(dá)為式(1)。
al,s=zl-1*wl,s+bs
(1)
zl,s=f(al,s)
(2)
式中:bs表示卷積核wl,s對(duì)應(yīng)的偏置;al,s表示卷積核wl,s對(duì)應(yīng)的卷積結(jié)果。式(1)表達(dá)的函數(shù)為線(xiàn)性函數(shù),為增加模型的復(fù)雜度,將非線(xiàn)性函數(shù)f(·)作用于卷積計(jì)算結(jié)果al,k,得到該卷積核對(duì)應(yīng)的最終輸出結(jié)果zl,k。假設(shè)該卷積層卷積核移動(dòng)步長(zhǎng)為str,則該卷積層的輸出特征圖zl的行Hl和列Wl可由式(3)、式(4)得到。
Hl=(Hl-1-ker)/str+1
(3)
Wl=(Wl-1-ker)/str+1
(4)
由式(3)、式(4)可知,通過(guò)設(shè)置卷積核移動(dòng)步長(zhǎng)在特征提取過(guò)程中會(huì)造成數(shù)據(jù)空間維度的減小,為使得特征圖和原始輸入影像具有相同空間尺度,往往會(huì)采用上采樣對(duì)特征圖進(jìn)行空間維度的擴(kuò)展。常采用的上采樣層包括反卷積、插值法等。HRNet利用雙線(xiàn)性差值來(lái)恢復(fù)特征圖的空間維度。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)疊加卷積層、上采樣層等網(wǎng)絡(luò)來(lái)逐層地獲得每一個(gè)像素對(duì)應(yīng)的深度特征向量。
在經(jīng)過(guò)深度特征提取階段之后,HRNet利用Softmax對(duì)提取到的特征進(jìn)行分類(lèi)。假設(shè)采用的卷積神經(jīng)網(wǎng)絡(luò)一共有L層,第L層網(wǎng)絡(luò)為分類(lèi)器Softmax,其分類(lèi)過(guò)程如式(5)所示。
(5)
式中:z0,i表示輸入影像第i個(gè)像素;p(k|z0,i)表示樣本像素z0,i屬于k類(lèi)的概率(k=1,2,…n);wL,t為Softmax中t類(lèi)對(duì)應(yīng)的參數(shù)向量;zL-1,i為像素z0,i在第L-1層網(wǎng)絡(luò)輸出的深度特征。
通過(guò)分析式(5)可知,Softmax分類(lèi)過(guò)程本質(zhì)是一個(gè)相似度計(jì)算過(guò)程,其通過(guò)計(jì)算像素z0,i的特征向量zL-1,i與每一類(lèi)的參數(shù)向量wL,t的內(nèi)積作為相似度來(lái)判斷像素z0,i屬于類(lèi)別,因此每一類(lèi)的參數(shù)向量wL,t可以看做該類(lèi)對(duì)應(yīng)的類(lèi)別中心。當(dāng)每一類(lèi)的參數(shù)向量wL,t的模相等時(shí),其分類(lèi)過(guò)程如圖4(a)所示。此時(shí),待分類(lèi)像素的深度特征與類(lèi)別中心的內(nèi)積相似度轉(zhuǎn)化為比較像素的高維深度特征與每一類(lèi)的類(lèi)別中心的夾角,即通過(guò)計(jì)算待分類(lèi)像素的深度特征與類(lèi)別中心的夾角來(lái)判斷其類(lèi)別。在圖4(a)中,因?yàn)樘卣鼽c(diǎn)zL-1,i與類(lèi)別中心wL,1的夾角θi,1最小,小于與其他類(lèi)別中心wL,2、wL,K的夾角θi,2和θi,K,所以像素z0,i被分為1類(lèi)。此時(shí),Softmax變?yōu)槭?6)。
(6)
式中:Sc為類(lèi)別中心向量wL,t與像素z0,i的深度特征向量模的乘積,即Sc=|wL,t|·|zL-1,i|;θt,i代表二者之間的夾角。
因此,為增加深度特征的可辨別性,使得同類(lèi)像素的深度特征向其對(duì)應(yīng)的類(lèi)別中心靠攏,本文將Softmax中類(lèi)別中心wL,t與像素的深度特征之間的夾角作為相似度度量,加入一個(gè)夾角懲罰因子β,迫使在訓(xùn)練階段,訓(xùn)練樣本與其對(duì)應(yīng)的類(lèi)別中心之間具有更小的角度。因此在相似度計(jì)算階段,本文首先計(jì)算特征向量與類(lèi)別中心wL,t的夾角(式(7))。
θt,i=arcos(wL,t·zL-1,i)
(7)
式中:θt,i代表像素i的特征向量zL-1,i與類(lèi)t的類(lèi)別中心wL,t之間的夾角。對(duì)于任一像素z0,i,假設(shè)其類(lèi)別為t,由式(7)導(dǎo)出其屬于類(lèi)t的概率,如式(8)所示。
(8)
式中:β為懲罰因子。
在損失計(jì)算階段,根據(jù)最大似然法則使得分類(lèi)概率最大,則得到分類(lèi)損失函數(shù)J,如式(9)所示。
(9)
式中:m為參與訓(xùn)練的像素樣本個(gè)數(shù);yi為像素i的類(lèi)別。在最小化式(9)時(shí),為取得最小值,損失函數(shù)會(huì)更加傾向于迫使該類(lèi)樣本向其類(lèi)別中心移動(dòng),使得夾角更小,以彌補(bǔ)懲罰因子β本身帶來(lái)的角度增加量,如圖4(b)所示。對(duì)比圖4(a)與圖4(b)可知,通過(guò)式(6)和式(8)分別計(jì)算2個(gè)圖中像素z0,i屬于類(lèi)1的概率,在二者得到相同概率時(shí),圖4(b)中像素z0,i與類(lèi)別中心wL,1的夾角比圖4(a)中夾角小(差值為β)。因此在訓(xùn)練階段,可利用式(8)代替式(6),使得像素樣本特征向其對(duì)應(yīng)的類(lèi)別中心靠攏。本文在實(shí)驗(yàn)部分對(duì)β的取值進(jìn)行了分析。
在訓(xùn)練階段,通過(guò)交替執(zhí)行前向運(yùn)算、后向運(yùn)算更新網(wǎng)絡(luò)參數(shù)。在后向階段,本文采用梯度下降算法對(duì)網(wǎng)絡(luò)參數(shù)更新,如式(10)所示。
(10)
式中:w代表卷積神經(jīng)網(wǎng)絡(luò)中的各層參數(shù);lr為學(xué)習(xí)率,用于控制網(wǎng)絡(luò)參數(shù)更新的步長(zhǎng)。
圖4 傳統(tǒng)Softmax與DICNN改進(jìn)的Softmax分類(lèi)原理
為驗(yàn)證提出算法的有效性,采用2個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。數(shù)據(jù)集1為高分二號(hào)數(shù)據(jù)集GID[20],包含建筑物、農(nóng)田、森林、草地和水域5個(gè)類(lèi)別,有150張影像,每張大小為6 800像素×7 200像素。在實(shí)驗(yàn)中隨機(jī)抽取120張影像用于訓(xùn)練,剩余30張用于測(cè)試。數(shù)據(jù)集2為T(mén)he SpaceNet Buildings數(shù)據(jù)集,該數(shù)據(jù)集主要用于建筑物提取,大小為650像素×650像素。本文選取上海和拉斯維加斯2個(gè)城市的建筑物數(shù)據(jù),分別從這2個(gè)城市選取60%(5 059張影像)作為訓(xùn)練集,剩余的40%(3 374張影像)作為測(cè)試集。圖5為實(shí)驗(yàn)數(shù)據(jù)代表樣本。本文利用HRNet作為特征提取網(wǎng)絡(luò),在這個(gè)網(wǎng)絡(luò)的基礎(chǔ)上施加所提出的角度懲罰項(xiàng)進(jìn)行實(shí)驗(yàn),并將HRNet作為對(duì)比方法驗(yàn)證所提方法的有效性。
為了使網(wǎng)絡(luò)獲得一個(gè)較好的初始化,首先,在cityscapes數(shù)據(jù)集[23]上對(duì)HRNet網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,獲得一個(gè)較好的參數(shù)初始化結(jié)果;然后,在實(shí)驗(yàn)數(shù)據(jù)集上進(jìn)行網(wǎng)絡(luò)微調(diào)。對(duì)數(shù)據(jù)集1,采用Kappa系數(shù)、總體精度OA和生產(chǎn)者精度作為評(píng)價(jià)指標(biāo)。對(duì)數(shù)據(jù)集2,采用準(zhǔn)確率Precession、召回率Recall以及F1 Score作為評(píng)價(jià)指標(biāo)。
圖5 實(shí)驗(yàn)數(shù)據(jù)示例樣本
1) 數(shù)據(jù)集1。表1給出了HRNet以及本文所提出的DICNN在β=0.5時(shí)于GID上的分割結(jié)果。從表1可以看出,本文提出的方法相較于對(duì)比方法HRNet,Kappa系數(shù)提高了1.8,總體精度OA提高了1.3,而且在建筑、農(nóng)田、森林、草地、水域等類(lèi)別相較于對(duì)比方法均有所提高,在農(nóng)田和水域2個(gè)類(lèi)別上精度提高明顯,分別有1.4和2.3的提升。
圖6給出了HRNet和DICNN在GID上的分類(lèi)混淆矩陣。從混淆矩陣可以看出,DICNN降低了農(nóng)田錯(cuò)分為水域和水域錯(cuò)分為森林的比例,將農(nóng)田錯(cuò)分為水域的比例由2.35降至0.9,將水域錯(cuò)分為森林的比例由4.37降至1.33。然而,DICNN同時(shí)也增加了草地錯(cuò)分為農(nóng)田的比例,將其比例由1.7擴(kuò)大至3.67,這可能是因?yàn)樵谟?xùn)練數(shù)據(jù)集中農(nóng)田的數(shù)據(jù)樣本多于其他類(lèi)別,呈現(xiàn)出數(shù)據(jù)不平衡現(xiàn)象,而利用DICNN的損失函數(shù)相較于HRNet中采用的Softmax對(duì)樣本不平衡更敏感。圖7給出了2種方法在GID數(shù)據(jù)集上的分類(lèi)結(jié)果可視化對(duì)比。從圖7的第一行可以看出,相較于HRNet,DICNN減少了草地錯(cuò)分為森林的現(xiàn)象,在區(qū)域1、2、3、4得到更純凈的分類(lèi)結(jié)果。在第二行中HRNet將部分農(nóng)田錯(cuò)分為水域,而DICNN減少了該類(lèi)錯(cuò)分,在區(qū)域1和區(qū)域2完全消除了農(nóng)田錯(cuò)分為水域的現(xiàn)象,在區(qū)域3也有部分消除。
表1 數(shù)據(jù)集1分割結(jié)果評(píng)價(jià)表 %
圖6 HRNet和DICNN在GID數(shù)據(jù)集上混淆矩陣
圖7 DICNN與HRNet在數(shù)據(jù)集1上的分類(lèi)結(jié)果可視化對(duì)比
2)數(shù)據(jù)集2。數(shù)據(jù)集2包含上海、巴黎、拉斯維加斯和喀土穆等地區(qū)的建筑物目標(biāo)。本文選用上海和拉斯維加斯2個(gè)城市的圖像作為實(shí)驗(yàn)數(shù)據(jù)進(jìn)行驗(yàn)證。表2給出了HRNet和DICNN在β=0.3時(shí)于數(shù)據(jù)集2上的實(shí)驗(yàn)結(jié)果。從表2可以看出,DICNN在準(zhǔn)確率Precession、召回率Recall以及F1 Score 3個(gè)評(píng)價(jià)指標(biāo)上均高于HRNet。相較于HRNet,DICNN在準(zhǔn)確率Precession、召回率Recall以及F1 Score 3個(gè)指標(biāo)上分別提高1.7、1.3和1.6,證明了其在提高特征辨別性方面的有效性。
表2 數(shù)據(jù)集2分割結(jié)果評(píng)價(jià) %
圖8給出了HRNet和DICNN在數(shù)據(jù)集2上的可視化分割結(jié)果。對(duì)于圖8中的區(qū)域1、區(qū)域3,HRNet將背景區(qū)域錯(cuò)分為建筑,而DICNN有效地消除了這一錯(cuò)分現(xiàn)象。對(duì)于區(qū)域4,HRNet無(wú)法將建筑正確識(shí)別,造成遺漏,而DICNN識(shí)別出了部分區(qū)域,消除了部分遺漏。對(duì)于區(qū)域2,HRNet和DICNN都錯(cuò)誤地將背景錯(cuò)分為了建筑,可能是因?yàn)閰^(qū)域2對(duì)應(yīng)的影像與建筑過(guò)于相似,無(wú)法有效識(shí)別。另外,從圖8可以看出,與2個(gè)參考圖相比,基于HRNet和DICNN預(yù)測(cè)的建筑在邊界區(qū)域的分割效果不理想,這主要是因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)采用卷積和池化的操作,造成空間信息的丟失,使得網(wǎng)絡(luò)最后的分割結(jié)果無(wú)法精確定位物體的邊界信息。在以后的工作中應(yīng)當(dāng)考慮加入邊界約束,改善預(yù)測(cè)結(jié)果的邊界。
圖8 HRNet和DICNN在數(shù)據(jù)集2上的分割結(jié)果對(duì)比
圖9 β不同取值時(shí)DICNN在2個(gè)數(shù)據(jù)集上的分割結(jié)果變化
在DICNN方法中,夾角懲罰項(xiàng)β決定了像素特征向其類(lèi)別中心靠攏的程度,即決定了所學(xué)特征的辨別性。為研究β對(duì)遙感影像語(yǔ)義分割的精度影響,分別令β取值{0.1,0.3,0.5,0.7,1.0,1.2}進(jìn)行分析。圖9給出了DICNN在β不同取值下,在2個(gè)數(shù)據(jù)集上的精度變化。從圖9可以看出,對(duì)于數(shù)據(jù)集1,在β從0.1增加至0.5的過(guò)程中,分割精度不斷提升,在β=0.5時(shí)取得最優(yōu)值,隨后隨著β的繼續(xù)增加,分割精度不斷下降。對(duì)于數(shù)據(jù)集2,指數(shù)Precision在β從0.1升至1.3的過(guò)程中不斷下降,指數(shù)F1 Score于β為0.3時(shí)取得最大值。當(dāng)β從0.1升至0.7時(shí),Recall增加,隨后隨著β的繼續(xù)增加而下降。
當(dāng)卷積神經(jīng)網(wǎng)絡(luò)用于高分辨率遙感影像語(yǔ)義分割時(shí),高分辨率影像所呈現(xiàn)出的類(lèi)間方差小、類(lèi)內(nèi)方差大的問(wèn)題,往往會(huì)造成錯(cuò)分。針對(duì)這一問(wèn)題,本文在Softmax的基礎(chǔ)上引入夾角懲罰項(xiàng),使得同類(lèi)像素樣本特征向量向其類(lèi)別中心靠近,增加深度特征的可辨別性,提高高分辨率遙感影像語(yǔ)義分割的精度。在GID和The SpaceNet Buildings 2個(gè)數(shù)據(jù)集上,本文所提出的算法分別將語(yǔ)義分割評(píng)價(jià)指標(biāo)Kappa和F1 Score 提高1.8和1.6,證明了其有效性。然而,所提出的方法在類(lèi)別不平衡和邊緣保持方面表現(xiàn)不佳。在未來(lái)的研究中將考慮通過(guò)自適應(yīng)加權(quán)技術(shù)解決類(lèi)別不平衡問(wèn)題。針對(duì)分割邊緣不完整的問(wèn)題,將考慮在初步語(yǔ)義分割結(jié)果的基礎(chǔ)上,利用邊緣提取技術(shù)對(duì)語(yǔ)義分割圖進(jìn)行約束優(yōu)化,獲得完整分割邊緣。