夏國靜,黃 凱,鄭慶雅,夏 萍,3*,田 波,3,周 婷,3,牛鑫鑫
基于優(yōu)化的ICNet高分遙感影像城市建成區(qū)分類
夏國靜1,黃 凱1,鄭慶雅2,夏 萍1,3*,田 波1,3,周 婷1,3,牛鑫鑫1
(1. 安徽農(nóng)業(yè)大學(xué)工學(xué)院,合肥 230036;2. 安徽工程大學(xué)人工智能學(xué)院,蕪湖 241000;3. 安徽省智能農(nóng)機(jī)裝備工程實(shí)驗(yàn)室,合肥 230036)
城市建成區(qū)是一類具有大面積的組合型目標(biāo)群體,該區(qū)域地物豐富,光譜特征復(fù)雜多變,且具有大量的同物異譜與地物像素單元交錯(cuò)等現(xiàn)象,影像分類難度顯著增加。針對圖像級聯(lián)網(wǎng)絡(luò)(image cascade network,ICNet)計(jì)算復(fù)雜、分類精度低的問題,采用優(yōu)化的ICNet對高分辨率遙感影像城市建城區(qū)地物分類進(jìn)行研究,通過添加高效通道注意力機(jī)制(efficient channel attention,ECA)和聯(lián)合金字塔上采樣模塊(joint pyramid upsampling,JPU)替換空洞卷積來獲得ICNet改進(jìn)網(wǎng)絡(luò),采用總體分類精度(overall accuracy,OA)、Kappa系數(shù)與F13個(gè)指標(biāo)對分類結(jié)果進(jìn)行精度評估,并與隨機(jī)森林(random forest,RF)、ENet和ICNet3種方法進(jìn)行對比分析。結(jié)果表明,優(yōu)化的ICNet網(wǎng)絡(luò)模型能夠更準(zhǔn)確的進(jìn)行地物分類,總體分類精度為75.12%,相較于其他分類方法分別提高16.56%、10.48%和4.81%。后用開源數(shù)據(jù)集進(jìn)一步驗(yàn)證了優(yōu)化模型的有效性,說明優(yōu)化的ICNet網(wǎng)絡(luò)可用于城市建成區(qū)的分類研究。
卷積神經(jīng)網(wǎng)絡(luò);ICNet語義分割模型;分類;高分遙感影像;城市建成區(qū)
近年來,隨著衛(wèi)星和航空遙感技術(shù)領(lǐng)域的快速發(fā)展,遙感影像的分辨率也隨之提升[1-2]。目前,遙感影像已廣泛應(yīng)用于場景分類、農(nóng)業(yè)災(zāi)害監(jiān)測、城市規(guī)劃、礦物業(yè)等方面。傳統(tǒng)的遙感影像分類方法主要有支持向量機(jī)(support vector machine,SVM)、最大似然法(maximum likelihood,ML)、最小距離法(minimum distance,MDC)、隨機(jī)森林(random forest,RF)等,這些方法簡單易學(xué),可有效分類遙感影像,但對于“同物異譜”、“異物同譜”現(xiàn)象的識(shí)別效果相對較差、分類準(zhǔn)確度不高[3-4]。為提高分類精度,充分利用影像的空間信息,卷積神經(jīng)網(wǎng)絡(luò)(convolutional network network,CNN)現(xiàn)已廣泛應(yīng)用到高分辨率遙感影像識(shí)別領(lǐng)域[5-6]。
自2012年AlexNet模型被提出開始,經(jīng)過不斷的改進(jìn)與優(yōu)化,目前已有眾多典型的CNN模型,如GoogLeNet、U-Net、ICNet、Deeplab系列等,這些語義分割網(wǎng)絡(luò)的提出為遙感影像分類帶來更多可能性,CNN網(wǎng)絡(luò)的具體實(shí)現(xiàn)方式各不相同,每個(gè)網(wǎng)絡(luò)模型所能達(dá)到最佳分類精度的適應(yīng)場景也有所不同[7-9]。Wu等提出了一種多約束全卷積網(wǎng)絡(luò)(MC-FCN)來進(jìn)一步提高U-Net模型的性能,其具有強(qiáng)大的特征表達(dá)能力,在提取建筑物方面表現(xiàn)良好[10]。Gaetano提出一種新的深度學(xué)習(xí)框架,即一種基于雙分支的端到端神經(jīng)網(wǎng)絡(luò),在大范圍區(qū)域?qū)嶒?yàn)并驗(yàn)證了所提方法的有效性[11]。胡偉等將樹形神經(jīng)網(wǎng)絡(luò)模塊與Deeplabv3+網(wǎng)絡(luò)結(jié)合,對城區(qū)遙感圖像進(jìn)行多類別分割,獲得較高的準(zhǔn)確率[12]。吳澤康等選擇包含多種類別的兩種數(shù)據(jù)集,對其提出的NC-Net網(wǎng)絡(luò)進(jìn)行精度驗(yàn)證,與其他算法相比具有一定的性能優(yōu)勢[13]。目前的影像分類研究針對單類或某幾類地物分類較多且能獲得較好識(shí)別效果,而對于類似城市建成區(qū)的多要素遙感影像分類研究并不多,其原因在于城市建成區(qū)內(nèi)部涵蓋建筑物、道路、游樂設(shè)施、植被、水體等,外部是林地、耕地以及布局稀疏的居民區(qū),光譜特征會(huì)受到建成區(qū)及周圍區(qū)域多樣性的影響,影像的不確定性提高,類別間混淆度增高,導(dǎo)致分類精度降低[14-15]。
針對城市建成區(qū)地物復(fù)雜多樣和ICNet計(jì)算復(fù)雜、分類精度低等問題,本研究采用一種優(yōu)化的ICNet對高分辨率遙感影像城市建成區(qū)分類,利用JPU模塊代替空洞卷積和增加ECA模塊這兩種方法達(dá)到對ICNet網(wǎng)絡(luò)的優(yōu)化,有效抑制地物間的混分現(xiàn)象,降低參數(shù)計(jì)算量的同時(shí)提高分類精度。為證明改進(jìn)后的ICNet網(wǎng)絡(luò)分類精度,本研究設(shè)計(jì)了與傳統(tǒng)機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法的對比實(shí)驗(yàn)并進(jìn)行分類精度結(jié)果分析,以期為大范圍的城市建成區(qū)地物分類提供參考價(jià)值。
選取的研究區(qū)為安徽省巢湖市建成區(qū)區(qū)域,巢湖市位于安徽省中部,因第五大淡水湖巢湖得名。此建成區(qū)區(qū)域影像為2020年2月獲取的高分辨率影像,來源于Google Earth,其覆蓋面積37.78 km2,圖像尺寸大小為5 761像素×6 561像素,像素深度為16 bit。從中截取4幅影像作為實(shí)驗(yàn)所用原始數(shù)據(jù),通過裁剪、格式轉(zhuǎn)換等預(yù)處理操作,得到空間分辨率為1 m、像素深度為8 bit的訓(xùn)練影像數(shù)據(jù) 集[16],標(biāo)簽數(shù)據(jù)集則采用目視解譯的方式得到。
為使優(yōu)化模型更具說服力,增加了一個(gè)開源數(shù)據(jù)集進(jìn)行測試,其來源于“中國計(jì)算機(jī)學(xué)會(huì)(China computer federation, CFF)衛(wèi)星影像的AI分類與識(shí)別競賽”,影像空間分辨率為亞米級,影像精度方面具有可靠性。
1.2.1 ICNet模型 ICNet是圖像級聯(lián)網(wǎng)絡(luò),其思想是讓低分辨率的圖像先經(jīng)過完整的語義感知網(wǎng)絡(luò)形成粗糙的預(yù)測圖,然后提出級聯(lián)特征融合單元(cascade feature fusion,CFF)和級聯(lián)標(biāo)簽指導(dǎo)策略(cascade label guidance,CLG),融合中分辨率和高分辨率特征,逐步細(xì)化粗略語義圖[17]。
ICNet網(wǎng)絡(luò)結(jié)構(gòu),共有上、中、下3個(gè)分支。頂層分支輸入圖像為1/4大小的圖像,并以8倍下采樣率輸入到PSPNet網(wǎng)絡(luò)中,得到1/32分辨率的特征圖,在頂部低分辨率分支中生成了模糊的邊界,雖然輸入圖像分辨率低,但已獲取大部分語義信息。為了獲得高精度的分割結(jié)果,中、高分辨率分支用于幫助恢復(fù)和細(xì)化粗略預(yù)測[18],高分辨率分支采用輕量級CNN作為特征提取網(wǎng)絡(luò),不同級別的輸出特征圖通過級聯(lián)特征融合單元進(jìn)行融合,并通過級聯(lián)標(biāo)簽指導(dǎo)策略進(jìn)行訓(xùn)練,不同分辨率的信息被有效利用,提高了計(jì)算效率。但模型主干網(wǎng)絡(luò)中的擴(kuò)張卷積會(huì)帶來計(jì)算方面的問題,并且模型對于圖像細(xì)節(jié)部分預(yù)測精度有待提高,預(yù)測結(jié)果存在部分截?cái)嗲闆r,這在后續(xù)的實(shí)驗(yàn)對比中也能發(fā)現(xiàn)。因此,本研究將從兩個(gè)方面對ICNet模型進(jìn)行改進(jìn),提高模型預(yù)測精度。
1.2.2 優(yōu)化的ICNet網(wǎng)絡(luò)模型 ICNet采用了一種殘差網(wǎng)絡(luò)resnet50,這種網(wǎng)絡(luò)會(huì)一定程度上提高分類精度,但其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)也增加了計(jì)算負(fù)擔(dān),分類準(zhǔn)確度方面還有很大的進(jìn)步空間。鑒于此,本實(shí)驗(yàn)基于典型的語義分割模型ICNet,引入ECA模塊和JPU模塊實(shí)現(xiàn)對ICNet性能的優(yōu)化。
1)ECA模塊。本研究采用的注意力機(jī)制為軟注意力機(jī)制,高效通道注意力機(jī)制(ECA)不僅有效捕捉了跨通道交互,而且避免了維度縮減,其主要思想為只涉及少量參數(shù)和可忽略的計(jì)算就可以實(shí)現(xiàn)性能的顯著提升,提出一種擁有自適應(yīng)卷積核大小的一維卷積替代原本的全連接層,保證在低復(fù)雜的情況下也有良好的性能表現(xiàn)[19]。在ECA中,進(jìn)行逐通道全局平均池化處理后,通過考慮每個(gè)通道和它個(gè)相鄰?fù)ǖ赖慕涣鳙@取本地跨通道交互信息,其結(jié)構(gòu)如下:
圖1 ECA模塊
Figure 1 The model of ECA
使用波段矩陣W來對通道注意力進(jìn)行學(xué)習(xí),W表示為:
為了降低模型復(fù)雜度,所有信道共享學(xué)習(xí)參數(shù),即:
其中,表示特征間相關(guān)性,的大小與第個(gè)通道遙感影像特征的重要性成正比。
可以進(jìn)一步簡化為一維卷積,即:
其中,表示一維卷積,表示對應(yīng)的卷積核大小。
=()=2(*k-b)(5)
之后,給定通道維數(shù),內(nèi)核大小通過下式自適應(yīng)確定:
在本實(shí)驗(yàn)中,將ECA模塊放入resnet50殘差處理模塊中,使得每層殘差模塊的恒等映射分支中都擁有了一個(gè)高效通道注意力模塊,()+通過映射分支和殘差分支的輸出做Add處理得到,后用relu函數(shù)進(jìn)行激活。通過添加注意力機(jī)制的操作,增強(qiáng)resnet50的特征提取能力,提高分類效果,并且注意力的添加并不增加網(wǎng)絡(luò)復(fù)雜程度,反而減少了計(jì)算量與參數(shù)量,提高模型精度。
2)JPU模塊。針對ICNet網(wǎng)絡(luò)中的擴(kuò)張卷積存在的計(jì)算復(fù)雜和消耗內(nèi)存過多的問題,本實(shí)驗(yàn)采用聯(lián)合金字塔上采樣(JPU)可以在多種方法中替代擴(kuò)張卷積,在不損失性能的情況下,使計(jì)算時(shí)間與復(fù)雜度減少3倍以上,有效提高了模型的性能。
對ICNet網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)如圖2所示,把上分支中設(shè)有的擴(kuò)張卷積用JPU模塊替代,中分支則仍在resnet50后添加JPU模塊,有效利用了JPU可以從多級特征地圖中提出多尺度背景信息的能力,從而獲得更好的性能[20]。
圖2 加入JPU模塊的ICNet網(wǎng)絡(luò)結(jié)構(gòu)
Figure 2 ICNet with JPU
這樣,通過使用JPU代替擴(kuò)張卷積和在resnet50后增添JPU機(jī)制的安排,使得網(wǎng)絡(luò)結(jié)構(gòu)能獲得更大的感受野。相比較原版ICNet使用擴(kuò)張卷積來提高分辨率,JPU聯(lián)合采樣的特性使其能夠利用多級特征圖的多尺度語義信息,加強(qiáng)了對特征的提取效果,在提高分辨率的同時(shí)減少了內(nèi)存的占用及計(jì)算的消耗。
1.3.1 樣本組織 使用下載的高分辨率遙感影像需要制作自建數(shù)據(jù)集,本次選取的實(shí)驗(yàn)數(shù)據(jù)相比其他衛(wèi)星遙感影像,不需要再對其進(jìn)行大氣校正、輻射定標(biāo)等預(yù)處理操作,影像清晰度較高,符合本次實(shí)驗(yàn)要求[21]。實(shí)驗(yàn)數(shù)據(jù)集選取4幅影像為訓(xùn)練影像,整幅建成區(qū)區(qū)域作為預(yù)測影像,影像的地圖級別為18,三通道RGB影像。選取的訓(xùn)練樣本如圖3所示。
圖3 訓(xùn)練樣本的選取
Figure 3 Training samples
在自建數(shù)據(jù)集的分類實(shí)驗(yàn)中,將對較大范圍遙感影像分類,共設(shè)7個(gè)大類,其中,其他類為舍棄其余6類后所剩余的地物。數(shù)據(jù)集包括原圖及對應(yīng)標(biāo)簽圖,標(biāo)簽樣本的制作首先需要將選取的遙感影像作為底圖,繪制各類別矢量圖,其次修改對應(yīng)的ID值,最后將像素深度統(tǒng)一更改為8 bit,并轉(zhuǎn)換為png格式輸出,制作完成的標(biāo)簽矢量圖如圖4所示。在正式進(jìn)入模型訓(xùn)練之前,為保證訓(xùn)練樣本的數(shù)量,利用隨機(jī)采樣窗口將訓(xùn)練的大圖切割擴(kuò)充為99 997張小圖,之后再對其添加點(diǎn)噪聲、濾波處理和幾何變換,至此完成對訓(xùn)練樣本數(shù)據(jù)的預(yù)處理工作[22]。
(a) 原圖 (b) 標(biāo)簽圖
Figure 4 Original image and visualization labels
1.3.2 精度評價(jià)指標(biāo) 采用總體分類精度(OA)、Kappa系數(shù)與F1這3個(gè)指標(biāo)作為分類精度評價(jià)標(biāo)準(zhǔn)[23]。其中OA為被正確分類的像元個(gè)數(shù)與總像元數(shù)的比值;Kappa系數(shù)是在混淆矩陣的基礎(chǔ)上計(jì)算,表示相比較隨機(jī)分類來說正確部分結(jié)果的比例,計(jì)算結(jié)果通常介于0~1之間,值越接近1代表分類精度越高;1值就是精確度和召回率的調(diào)和均值,這里的設(shè)為1;具體公式如下:
為了評估優(yōu)化ICNet網(wǎng)絡(luò)的有效性,本實(shí)驗(yàn)在完成自建數(shù)據(jù)集的算法對比分析后,選擇了一個(gè)開源數(shù)據(jù)集進(jìn)行分類效果驗(yàn)證,進(jìn)一步證明優(yōu)化的ICNet網(wǎng)絡(luò)的優(yōu)勢。
為了驗(yàn)證本實(shí)驗(yàn)方法的有效性和可行性,與3種算法的結(jié)果進(jìn)行對比分析。參與實(shí)驗(yàn)的訓(xùn)練數(shù)據(jù)集與預(yù)測數(shù)據(jù)集均相同,以此保證對比實(shí)驗(yàn)的公平性[24]。
圖5 不同方法對城市建成區(qū)遙感影像分類結(jié)果對比
Figure 5 Comparison of classification results of urban built-up area remote sensing images among different methods
分別用隨機(jī)森林、ENet、ICNet、優(yōu)化的ICNet網(wǎng)絡(luò)4種方法對該影像進(jìn)行分類,經(jīng)過可視化處理后,4種方法的分類結(jié)果對比如圖5所示。從預(yù)測的整體性來看,優(yōu)化后的ICNet網(wǎng)絡(luò)混淆分類的情況明顯減少,呈現(xiàn)較好的分類結(jié)果。
表1 不同方法的精度評估對比
圖6 4種方法預(yù)測結(jié)果細(xì)節(jié)
Figure 6 Details of the four methods prediction results
表1列舉了4種方法的精度對比結(jié)果,可以明顯看出,總體分類精度、Kappa系數(shù)及各類別的1值在不斷提高,其中傳統(tǒng)隨機(jī)森林算法的指標(biāo)最低,分類效果最差。優(yōu)化的ICNet網(wǎng)絡(luò)總體分類精度達(dá)到了75.12%,比ENet和ICNet分別提高了10.48%和4.81%,Kappa系數(shù)為0.66,比ENet和ICNet分別提高了0.05和0.1,7類類別的F1值均高于其他3種分類算法,分類效果提升明顯。7類地物中建筑、水體、道路、常綠林、其他這5類的評價(jià)指標(biāo)都較高,達(dá)到了實(shí)驗(yàn)分類精度的要求,但是,可以看到由于落葉林與耕地這兩種地物的混淆度較高,導(dǎo)致分類結(jié)果相對較差,后續(xù)考慮通過分段的方式提高分類精度。
圖6為圖5部分區(qū)域的細(xì)節(jié)圖,第1組和第2組為高密度建筑與低密度建筑,傳統(tǒng)的隨機(jī)森林分類方法對高密度建筑的提取效果較好,但由于低密度建筑地物特征雜亂無序,錯(cuò)分現(xiàn)象嚴(yán)重,大部分都混分成了植被與道路,不能精確地表達(dá)其復(fù)雜的地物特征;而其他兩種算法雖整體分類效果不錯(cuò),但也存在部分細(xì)節(jié)表現(xiàn)差,例如高密度建筑的左上角和低密度建筑的左下角。針對第3組的水體來說,隨機(jī)森林此塊地物的水體與常綠林混淆,導(dǎo)致分類錯(cuò)誤,而ENet和ICNet網(wǎng)絡(luò)對水體的邊緣細(xì)節(jié)分割較為粗糙。第4組道路中,傳統(tǒng)方法出現(xiàn)了不少的錯(cuò)誤識(shí)別,錯(cuò)把其他地類識(shí)別為道路,導(dǎo)致分類精度低,而ENet和ICNet都出現(xiàn)了不同程度的斷點(diǎn)問題。優(yōu)化的ICNet網(wǎng)絡(luò)對建筑、道路、水體的預(yù)測結(jié)果接近實(shí)際標(biāo)簽圖,保留了更多的細(xì)節(jié)信息,分類表現(xiàn)優(yōu)異。針對第5組與第6組的常綠林與落葉林來說,4種方法的識(shí)別效果差距較小,出現(xiàn)了小部分的識(shí)別錯(cuò)誤,但本實(shí)驗(yàn)方法呈現(xiàn)了更精細(xì)的分類。第7組耕地中,本實(shí)驗(yàn)方法的效果明顯優(yōu)異。而第8組的其他類,優(yōu)化的ICNet網(wǎng)絡(luò)可以高效的提取其特征參數(shù),改善混淆現(xiàn)象??傮w來說,優(yōu)化后的ICNet網(wǎng)絡(luò)分類效果明顯優(yōu)于其他分類算法,達(dá)到實(shí)驗(yàn)對高分辨率遙感影像的分類要求。
表2 3種方法的精度評估對比
將開源數(shù)據(jù)集影像分為5類,分別為建筑、道路、水體、樹木和其他,選擇ENet、ICNet和優(yōu)化的ICNet3種網(wǎng)絡(luò)模型對影像進(jìn)行訓(xùn)練,并采用總體分類精度和Kappa系數(shù)兩個(gè)評價(jià)指標(biāo)進(jìn)行精度對比。預(yù)測結(jié)果如表2和圖7所示。
圖7 3種方法預(yù)測結(jié)果
Figure 7 Prediction results of three methods
在開源數(shù)據(jù)集的實(shí)驗(yàn)中,從精度評估方面可以發(fā)現(xiàn)優(yōu)化的ICNet網(wǎng)絡(luò)依然具有較高預(yù)測精度,總體分類精度達(dá)到81.9%,Kappa系數(shù)為0.73,相比其他兩種算法有較大提升。從預(yù)測出的結(jié)果圖方面可以發(fā)現(xiàn)對于一些細(xì)小的道路、樹木等,ENet網(wǎng)絡(luò)幾乎沒能預(yù)測出來,ICNet網(wǎng)絡(luò)雖部分能夠預(yù)測出,但依然存在一些誤判,而優(yōu)化的ICNet網(wǎng)絡(luò)對各類別的預(yù)測結(jié)果最接近真實(shí)標(biāo)簽圖,進(jìn)一步說明優(yōu)化的ICNet網(wǎng)絡(luò)的可靠性。
本研究利用優(yōu)化后的網(wǎng)絡(luò)模型—ICNet+ECA+ JPU對大范圍城市建成區(qū)高分辨率遙感影像進(jìn)行分類研究,并與隨機(jī)森林(RF)、ENet、ICNet作對比實(shí)驗(yàn)。結(jié)果表明,改進(jìn)的深度學(xué)習(xí)網(wǎng)絡(luò)模型可以有效提高影像分類精度,總體分類精度達(dá)75.12%,Kappa系數(shù)為0.66,其中建筑與水體類分類效果最好,分別達(dá)到了81.72%和83.48%,分類效果明顯優(yōu)于其他分類算法,并在開源數(shù)據(jù)集上進(jìn)一步證明優(yōu)化后網(wǎng)絡(luò)模型的優(yōu)勢。實(shí)驗(yàn)證明,深度學(xué)習(xí)網(wǎng)絡(luò)模型在城市建成區(qū)高分辨率遙感影像分類方面有很大的潛力??紤]到遙感影像在不同網(wǎng)絡(luò)模型上訓(xùn)練結(jié)果的差異性,后期將在深度學(xué)習(xí)網(wǎng)絡(luò)模型的選擇與訓(xùn)練參數(shù)的設(shè)置上重點(diǎn)研究,進(jìn)一步提高分類精度。
[1] 汪曉洲, 石翠萍, 楊焜, 等. 基于深度學(xué)習(xí)的場景遙感圖像分類方法研究[J]. 齊齊哈爾大學(xué)學(xué)報(bào)(自然科學(xué)版), 2021, 37(5): 11-15.
[2] 陳妮, 應(yīng)豐, 王靜, 等. 基于U-Net的高分辨率遙感圖像土地利用信息提取[J]. 遙感技術(shù)與應(yīng)用, 2021, 36(2): 285-292.
[3] 戚王月, 胡宏祥, 夏萍, 等. 基于改進(jìn)BP神經(jīng)網(wǎng)絡(luò)的多分辨率遙感圖像分類及對比分析[J]. 安徽農(nóng)業(yè)大學(xué)學(xué)報(bào), 2019, 46(4):737-744.
[4] 袁立, 袁吉收, 張德政. 基于DeepLab-v3+的遙感影像分類[J]. 激光與光電子學(xué)進(jìn)展, 2019, 56(15): 236-243.
[5] CASTELLUCCIO M, POGGI G, SANSONE C, et al. Land use classification in remote sensing images by convolutional neural networks [EB/OL]. 2015: arXiv: 1508. 00092. https://arxiv.org/abs/1508.00092.
[6] 盧元兵, 李華朋, 張樹清. 基于混合3D-2D CNN的多時(shí)相遙感農(nóng)作物分類[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(13): 142-151.
[7] 李唯嘉. 面向遙感影像分類、目標(biāo)識(shí)別及提取的深度學(xué)習(xí)方法研究[D]. 北京: 清華大學(xué), 2019.
[8] 牛鑫鑫, 孫阿猛, 王釬灃, 等. 基于深度學(xué)習(xí)的遙感圖像分類研究[J]. 激光雜志, 2021, 42(5): 10-14.
[9] 馬少鵬, 梁路, 滕少華. 一種輕量級的高光譜遙感圖像分類方法[J]. 廣東工業(yè)大學(xué)學(xué)報(bào), 2021, 38(3): 29-35.
[10] WU G M, SHAO X W, GUO Z L, et al. Automatic building segmentation of aerial imagery using multi-constraint fully convolutional networks[J]. Remote Sens, 2018, 10(3): 407.
[11] GAETANO R, IENCO D, OSE K, et al. A two-branch CNN architecture for land cover classification of PAN and MS imagery[J]. Remote Sens, 2018, 10(11): 1746.
[12] 胡偉, 高博川, 黃振航, 等. 樹形結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化的城區(qū)遙感圖像語義分割[J]. 中國圖象圖形學(xué)報(bào), 2020, 25(5): 1043-1052.
[13] 吳澤康, 趙姍, 李宏偉, 等.遙感圖像語義分割空間全局上下文信息網(wǎng)絡(luò)[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版), 2022, 56(4): 795-802.
[14] 吉長東, 康仲林. 高分六號衛(wèi)星城市建成區(qū)提取方法[J]. 激光與光電子學(xué)進(jìn)展, 2021, 58(4): 439-446.
[15] 武宇, 張俊, 李屹旭, 等. 基于改進(jìn)U-Net的建筑物集群識(shí)別研究[J]. 國土資源遙感, 2021, 33(2): 48-54.
[16] 徐知宇, 周藝, 王世新, 等. 面向GF-2遙感影像的U-Net城市綠地分類[J]. 中國圖象圖形學(xué)報(bào), 2021, 26(3): 700-713.
[17] ZHAO H, QI X, SHEN X, et al. ICNet for real-time semantic segmentation on high-resolution images [EB/OL]. 2017: arXiv: 1704.08545. https://arxiv.org/abs/1704.08545.
[18] 佘磊. 基于深度學(xué)習(xí)的山區(qū)道路圖像語義分割研究[D]. 成都: 成都理工大學(xué), 2020.
[19] WANG Q L, WU B G, ZHU P F, et al. ECA-net: efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 11531-11539.
[20] WU H K, ZHANG J G, HUANG K Q, et al. FastFCN: rethinking dilated convolution in the backbone for semantic segmentation[EB/OL]. 2019: arXiv: 1903.11816 [cs.CV]. https:// arxiv.org/abs/1903.11816.
[21] 劉海秋, 任恒奎, 牛鑫鑫, 等. 基于Sentinel-2遙感影像的巢湖藍(lán)藻水華提取方法研究[J]. 生態(tài)環(huán)境學(xué)報(bào), 2021, 30(1): 146-155.
[22] 呂道雙, 林娜, 馮麗蓉, 等. 基于改進(jìn)型U-Net網(wǎng)絡(luò)的高分辨率遙感影像建筑物提取[J]. 地理空間信息, 2021, 19(1): 30-34.
[23] 王慶超, 付光遠(yuǎn), 汪洪橋, 等. 多核融合多尺度特征的高光譜影像地物分類[J]. 光學(xué)精密工程, 2018, 26(4): 980-988.
[24] 張祥東, 王騰軍, 朱劭俊, 等. 基于擴(kuò)張卷積注意力神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類[J]. 光學(xué)學(xué)報(bào), 2021, 41(3): 49-59.
Classification of urban built-up area from high-resolution remote sensing image based on the optimized ICNet
XIA Guojing1, HUANG Kai1, ZHENG Qingya2, XIA Ping1,3, TIAN Bo1,3, ZHOU Ting1,3, NIU Xinxin1
(1. School of Engineering, Anhui Agricultural University, Hefei 230036;2. School of Artificial Intelligence, Anhui Polytechnic University, Wuhu 241000;3. Anhui Intelligent Agricultural Machinery Equipment Engineering Laboratory, Hefei 230036)
Urban built-up area is a kind of combined target group with large area, which is rich in features, complex and variable spectral characteristics, and has a large number of phenomena such as different spectra of the same object and the interleaving of ground object pixel units, making image classification significantly more difficult. To address the problems of complex calculation and low classification accuracy of image cascade network (ICNet), the optimized semantic segmentation model (ICNet) is used to classify the ground objects in the urban built-up area of high-resolution remote sensing images, by adding the efficient channel attention (ECA) and joint The classification results are evaluated by adding efficient channel attention (ECA) and joint pyramid upsampling (JPU) to replace dilated convolution to obtain the improved ICNet network. The overall accuracy (OA), kappa and F13 were used to evaluate the accuracy of the classification results, and were further compared with random forest (RF), ENet and ICNet methods. The results showed that the optimized ICNet network model could classify ground objects more accurately with an overall classification accuracy of 75.12%, which was 16.56%, 10.48% and 4.81% higher than that with RF, ENet and ICNet method, respectively. Then, the open source data set was used to further verify the effectiveness of the optimized model. The experiment results showed that the optimized ICNet network can be used for the classification of urban built-up areas.
convolutional neural network; ICNet semantic segmentation model; classification; high-resolution remote sensing images; urban built-up area
TU984.1; P407.8
A
1672-352X (2023)02-0303-07
2022-02-23
國家自然科學(xué)基金(11802003),安徽省自然科學(xué)基金(2008085ME158)和安徽省國際科技合作計(jì)劃項(xiàng)目(1604b0602029)共同資助。
夏國靜,碩士研究生。E-mail:xiaguojing_1030@163.com
通信作者:夏 萍,博士,教授。E-mail:xiaping@ahau.edu.cn
10.13610/j.cnki.1672-352x.20230511.001
2023-05-12 10:07:35
[URL] https://kns.cnki.net/kcms/detail/34.1162.S.20230511.1148.002.html