岳泓光 韓龍玫 王正勇 卿粼波
高分辨率遙感圖像場景分類廣泛應(yīng)用于土地監(jiān)測、環(huán)境保護及城市規(guī)劃等諸多領(lǐng)域.現(xiàn)有場景分類方法不能很好地結(jié)合局部紋理信息和全局語義信息,同時各通道特征之間的關(guān)系沒有得到有效挖掘.因此,本文提出了一種基于多通道自注意力網(wǎng)絡(luò)的遙感圖像場景分類模型.通過卷積網(wǎng)絡(luò)提取遙感圖像的多尺度特征;隨后采用特征融合單元建立多尺度特征間的局部-全局關(guān)系,基于多頭自注意力機制的Inter-Channel Transformer在通道維度對融合后的特征建模,并推導(dǎo)特征在通道間的關(guān)系,進一步擴大全局感受野,以捕捉其語義結(jié)構(gòu)信息,有效提高了網(wǎng)絡(luò)的分類精度.在數(shù)據(jù)集AISC和SIRI-WHU上,本文所提算法的整體分類準確率(OA)分別為95.70%和94.00%,超過了當前最新的研究算法,證明了所提模型在高分辨率遙感圖像場景分類任務(wù)中的有效性.
高分辨率遙感圖像場景分類; 卷積神經(jīng)網(wǎng)絡(luò); 自注意力機制; 多通道特征
TP391.4A2023.023002
收稿日期: 2022-05-24
基金項目: 國家自然科學基金(61871278)
作者簡介: 岳泓光(1996-), 男, 四川巴中人, 碩士研究生, 研究方向為計算機視覺. E-mail: 610381446@qq.com
通訊作者: 王正勇. E-mail: 690728634@sina.com
Remote sensing image scene classification based on multi-channel self-attention network
YUE Hong-Guang1, HAN Long-Mei2, WANG Zheng-Yong1, QING Lin-Bo1
(1.College of Electronics and Information Engineering, Sichuan University, Chengdu 610065, China;
2.Chengdu Institute of Planning & Design, Chengdu 610041, China)
High resolution remote sensing image (HRRSI) scene classification is widely used in many fields such as land monitoring, environment protection, urban planning and so on. The existing scene classification methods cannot fuse the local-texture and global-semantic information well, and the relationship between the features of each channel has not been effectively explored. Therefore, this paper proposed a new method based on multi-channel self-attention network for HRRSI scene classification. Firstly, the multi-resolution features are extracted by Convolutional Neural Network(CNN); then, a feature fusion unit is used to establish the local-global relationship between multi-scale features. In addition, Inter-Channel Transformer, which is based on multi-head self-attention mechanism, models the merged representations in the channel dimension, and reasons the relationship between the features of each channel, further expands the global receptive field to capture its semantic structure information. Finally, the proposed method improves the classification accuracy. This paper also designs series of experiments on AISC and SIRI-WHU datasets to demonstrate the validity of the proposed algorithm for HRRSI scene classification task. The OA(Overall Accuracy) performance are 95.70% and 94.00% on AISC and SIRI-WHU respectively. It has surpassed the state-of-the-art algorithms.
HRRSI scene classification; Convolutional neural network; Self-attention mechanism; Multi-channel feature
1 引 言
遙感技術(shù)主要是通過衛(wèi)星等現(xiàn)代化設(shè)施捕捉地表物體的電磁輻射信息,進而產(chǎn)生包含大量紋理特征、光譜信息及顏色信息等多種復(fù)雜特征的遙感圖像[1,2].得益于遙感技術(shù)的高速發(fā)展,高分辨率遙感圖像被廣泛應(yīng)用于土地監(jiān)測[3-6]、環(huán)境保護[7]、自然災(zāi)害檢測[8]和城市規(guī)劃[9]等眾多領(lǐng)域.
研究表明,相對于傳統(tǒng)自然圖像,遙感圖像包含了大量的淺層紋理特征和顏色信息[10]、中層語義信息及高層的視覺信息等[11].同時圖像中地物目標尺度不一,前/背景特征豐富,如何表達并在特征空間中有效地傳遞特征信息,成為遙感圖像實現(xiàn)精準場景分類的關(guān)鍵.基于CNN的深度學習方法如VGG[12]、ResNet[13]等由于其強大的特征提取能力而不斷興起,并廣泛應(yīng)用于圖像分類[13]、目標檢測[14]等機器視覺領(lǐng)域,如張意等[15]學者通過注意力機制及感知損失,構(gòu)建了基于殘差自編碼器的遙感圖像去噪網(wǎng)絡(luò).考慮到光譜域的非線性特征的提取對于高光譜圖像分類至關(guān)重要,因此池濤等[16]學者基于多層感知器卷積層和批歸一化層構(gòu)建了七層網(wǎng)絡(luò)結(jié)構(gòu),在不同類別物體的光譜特征提取上取得了較好的結(jié)果.然而CNN不能很好地對全局信息進行建模,從而對圖像語義信息的挖掘不夠深入.得益于Visual Transformer(ViT)[17]捕捉長距離特征依賴關(guān)系的能力,使其經(jīng)過海量數(shù)據(jù)訓練后的性能超越了CNN,但ViT在全局建模時會損失局部信息,對圖像精準分類有一定的損失.
2 相關(guān)工作
大量學者通過不斷挖掘卷積神經(jīng)網(wǎng)絡(luò)的潛力,一定程度上提升了模型對于遙感圖像場景分類任務(wù)的性能[18-30].如李彥甫等[18]在殘差網(wǎng)絡(luò)中融合了自注意力機制,對圖像的全局信息建模,實現(xiàn)了較好的分類性能.Li[19]根據(jù)圖卷積神經(jīng)網(wǎng)絡(luò)和神經(jīng)結(jié)構(gòu)搜索的思想,設(shè)計了隨機拓撲器和隨機映射單元這一輕量級模型用于提高分類精度.遙感圖像中場景的幾何形變較大,對深度網(wǎng)絡(luò)的學習能力有一定的影響,因此,施慧慧等[20]通過引入可形變卷積,構(gòu)建了深度遷移可變形卷積神經(jīng)網(wǎng)絡(luò)(Deep Transfer Deformable Convolutional Neural Networks, DTDCNN),一定程度上增強了對空間位置的采樣能力.王李祺等[21]在遙感圖像空間特性如紋理特征的提取上引入了灰度共生矩陣(Gray-Level Cooccurrence Matrix, GLCM)和局部二值模式(Local Binary Pattern,LBP),隨后采用AlexNet對淺層特征進一步抽象,提取更具表達能力的深層特征,最后融合淺層特征與深層特征用于場景分類.為了解決傳統(tǒng)機器學習在提取圖像特征效率較低以及對圖像中的空間信息和通道信息無法精準把握等問題,喬星星等[22]應(yīng)用ResNet101[13]為基礎(chǔ)網(wǎng)絡(luò),并在其中融入了空間注意力和通道注意力,進而高效地完成了特征的提取與重建.然而遙感圖像中地物目標的尺度變化較大,上述方法并未考慮在圖像特征的學習中引入多尺度學習.王協(xié)等[25]為實現(xiàn)輸入圖像和特征圖像的多尺度學習,引入了多尺度神經(jīng)網(wǎng)絡(luò)和空洞卷積;劉美等[26]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的多分辨率特征融合網(wǎng)絡(luò)(Multi-Resolution Feature Network,MRFN),并在AISC[26]和SIRI-WHU[27]數(shù)據(jù)集上取得了較好的性能.上述學者雖然在模型的設(shè)計之初考慮了多尺度特征對模型性能的影響,但是對于多尺度特征的融合依然有所欠缺,未充分利用大尺度特征中所蘊含的紋理信息以及小尺度特征中的語義信息.因此不能很好地對多尺度特征進一步挖掘其中的深層次屬性,同時也不能在各層通道中對特征建模,以此長距離捕捉特征依賴關(guān)系.
為解決上述問題,本文充分融合基于多尺度特征的卷積神經(jīng)網(wǎng)絡(luò)和基于自注意力機制的通道間Transformer(Inter-Channel Transformer, ICT)模型,提出了多通道自注意力網(wǎng)絡(luò).采用MRFN[26]作為基礎(chǔ)網(wǎng)絡(luò)提取初始多分辨率特征圖(Feature Map, FM);其次,為更好地捕捉圖像中多尺度地物目標的特征信息,本文設(shè)計了多尺度特征生成器(Multi-Scale Generator, MSG);最后利用ICT模塊對多尺度特征進行融合,并推理融合后的特征圖在不同通道間的關(guān)系,以此增強模型的特征表達能力和長距離捕捉能力.為驗證模型在遙感圖像場景分類任務(wù)中的有效性,本文分別在數(shù)據(jù)集AISC[26]和SIRI-WHU[27]上開展大量實驗,證明了所提模型的良好性能.
3 算法設(shè)計
3.1 整體結(jié)構(gòu)
針對遙感圖像空間信息多樣化、地物目標較小以及類間多樣性等特點,本文提出了多通道自注意力網(wǎng)絡(luò),其總體結(jié)構(gòu)如圖1所示.首先通過卷積和瓶頸殘差塊(Bottleneck)提取高分辨率遙感圖像的初始特征,為了防止梯度消失/爆炸,對殘差塊重復(fù)堆疊四次,并采用串行連接的方式,對特征進行降維減少計算量;然后利用兩個并行連接的支路以不同的卷積步長提取不同分辨率的特征,抽象出圖像的紋理信息、顏色信息及輪廓信息等,這類特征能很好地描述圖像的表層屬性.隨后在兩個分支的基本殘差塊(BasicBlock)中分別嵌入通道注意力和空間注意力模塊(Convolutional Block Attention Module,CBAM)[28],為更好地構(gòu)建深度神經(jīng)網(wǎng)絡(luò),以便學習多分辨率特征中的空間信息和通道信息,對CBAM BasicBlock重復(fù)堆疊4次;利用多尺度特征生成器(Multi-Scale Feature Generator,MSFG)進一步提取多分辨率特征中的語義信息,并產(chǎn)生三組多尺度特征圖F1、F2、F3;最后通過基于自注意力機制的ICT對多尺度特征進行融合并推理各通道特征間的關(guān)系,以此長距離捕捉特征依賴關(guān)系,最終通過全連接網(wǎng)絡(luò)(Fully Connection, FC)實現(xiàn)遙感圖像的場景分類.
3.2 多尺度特征挖掘
為了更好地感知遙感圖像中不同尺度地物目標的語義信息,本文設(shè)計多尺度特征生成器(Multi-Scale Feature Generator,MSFG),如圖2所示.對前文提取的高/低分辨率特征圖FH和FL采用卷積和轉(zhuǎn)置卷積(TransConv)以不同的平滑步長stride下采樣,擴展特征圖的感受野.感受野表征的是特征圖的一個圖點對應(yīng)初始圖像上某個區(qū)域的映射,在深度神經(jīng)網(wǎng)絡(luò)中,較大的感受野能提煉出圖像中抽象的語義信息,從全局視角下描述圖像的本質(zhì)屬性.本文針對FH和FL分別采用不同的降采樣方式產(chǎn)生三組多尺度特征圖,為完整保留從FH和FL中抽樣出的特征信息,采用張量拼接Concatenate方式將6個特征圖兩兩融合構(gòu)成新的特征矩陣,最終產(chǎn)生三個多尺度特征圖F1、F2及F3.
3.3 多尺度特征融合及推理
對前文提出的多尺度特征以加權(quán)求和的方式進行融合,充分利用各個尺度特征中所聚合的信
息,如圖3中特征融合(Feature Fusion Unit)部分所示.首先對多尺度特征F1、F2及F3采用自適應(yīng)最大池化將空間維度降為一致,最大池化可以很好地保留圖像的紋理信息,因此下采樣后的特征圖不僅聚合了大量的空間信息,同時有效降低了模型的計算量;其次,相同尺度的特征在各個通道的表達能力各不相同,因此對池化后的特征矩陣采用Sigmoid激活函數(shù)計算各通道的權(quán)重W1、W2及W3.將權(quán)重矩陣與下采樣后的特征圖相乘,即可得到經(jīng)通道重校準后新的特征表示F′1、F′2和F′3,增強了特征圖在通道中的表達能力;最后對加權(quán)后的特征圖求和得到Ff,有效融合了低層幾何信息和高層語義信息.相較于本文所提模型,劉美等[26]提出的多分辨率特征融合網(wǎng)絡(luò)則采用了較為常見的卷積方式,將多分辨率的特征圖下采樣至尺度一致,然后相互疊加,以實現(xiàn)特征的融合,如此一來便損失了高分辨特征圖中所蘊涵的空間幾何信息,卷積的引入也帶來了額外的參數(shù)量;此外未經(jīng)通道校準的特征也會帶來大量的信息冗余,不能突出通道表達能力更強的特征,同時多尺度特征中的語義信息及幾何信息未能得到充分的利用,降低了特征的表征能力.本文所提出的特征融合階段的計算如式(1)所示.
Ff=(σ(MaxPool([F1,F(xiàn)2,F(xiàn)3])))×
(MaxPool([F1,F(xiàn)2,F(xiàn)3]))T(1)
其中,[F1,F(xiàn)2,F(xiàn)3]表示多尺度特征矩陣,MaxPool([F1,F(xiàn)2,F(xiàn)3])表示計算通道權(quán)重后的矩陣[W1,W2,W3],F(xiàn)f為加權(quán)后的特征.MaxPool表示最大池化,σ表示激活函數(shù)Sigmoid.
融合多尺度特征后,對Ff作點卷積變換映射到高維空間,充分融合通道信息,產(chǎn)生多通道特征圖(Multi-Channel Feature Maps, MCFM).類似于Transformer在自然語言處理領(lǐng)域中將輸入切分為多個詞向量,在本文中將MCFM按通道切分為多個patches,同時增加一個用于分類輸出的可學習向量class token(Xclass),為降低模型的學習成本并保留各個patch在通道中的位置關(guān)系,加入了可學習的位置編碼Position Embedding,將Xclass與patches拼接之后加上位置編碼構(gòu)成新的輸入特征矩陣Ft.在Transformer Encoder中,對輸入特征進行層歸一化(Layer Normalization, LN)處理,利用多頭自注意力模塊(Multi-Head Self-Attention)在高維空間中對特征建模,產(chǎn)生全局感受野,有效捕捉圖像中的長距離依賴關(guān)系,多頭自注意力機制的計算過程如式(2)所示.多層感知機(Multi-Layer Perception, MLP)將經(jīng)注意力加權(quán)后的特征圖通過線性映射提取其中的高層視覺信息,增強模型的表達能力.編碼器中的殘差連接保證了信息流的無損傳輸,最終實現(xiàn)從低層到高層的跨越.最后通過聚合了全局語義特征和高層視覺信息的Xclass作最后的分類器.
Atten(Q,K,V)=SoftmaxQ·KTdkV(2)
Q=Ft×WTQ+b0(3)
K=Ft×WTK+b1(4)
V=Ft×WTV+b2(5)
式(2)中,Q、K、V分別表示由特征矩陣Ft通過不同的權(quán)重線性映射得到的Query(查詢矩陣)、Key(鍵矩陣)和Value(值矩陣),Attn為注意力機制的輸出矩陣;式(3)~式(5)中的W0、W1、W2為不同的權(quán)重矩陣,采用隨機初始化并可學習,dk代表K的維度,b0、b1、b2表示偏置,Q·KT即為矩陣Q在矩陣KT上的投影,Softmax為權(quán)值生成函數(shù).
4 實驗結(jié)果與分析
4.1 實驗數(shù)據(jù)集
本文采用的實驗數(shù)據(jù)集來源于數(shù)據(jù)集AISC[26]和SIRI-WHU[27].其中AISC由劉美等[26]提出,數(shù)據(jù)集覆蓋中國二十多個城市,共計6種類別,分別為:residential、administration、industrial、road、commercial以及green space,圖4展示了部分場景圖.數(shù)據(jù)集共有17 831張高分辨率遙感圖像,每個類別分別有大約2900張圖片,其空間分辨率為0.6 m,每張圖片為200×200像素.SIRI-WHU[27]數(shù)據(jù)集由武漢大學的RE-IDEA團隊設(shè)計并于2016年發(fā)布,數(shù)據(jù)集包括agriculture、commercial、industrial等12個場景類別,共計2400張圖片,每類200張圖片,每張圖片的像素尺寸為200×200,空間分辨率2 m,部分場景圖如圖5所示.
為避免由實驗數(shù)據(jù)的差異對實驗帶來的影響,本文在訓練集、驗證集、測試集的分配與[26]保持相同.在AISC[26]數(shù)據(jù)集中,隨機采用每個類別中60%的圖片作為訓練集用于擬合模型,20%的圖片作為驗證集以驗證模型的性能,剩下的20%作為最終的測試集,測試模型的泛化能力.在SIRI-WHU[27]數(shù)據(jù)集中隨機選取每個場景80%的圖片作為訓練集,20%的圖片作為測試集.并對兩個數(shù)據(jù)集采用數(shù)據(jù)預(yù)處理,包含隨機旋轉(zhuǎn)、隨機裁剪及歸一化等.
4.2 實驗環(huán)境及參數(shù)配置
為驗證本文所提出的模型在高分辨率遙感圖像場景分類任務(wù)上的有效性,本文在AISC[26]數(shù)據(jù)集和SIRI-WHU[27]數(shù)據(jù)集上開展大量實驗.實驗采用64位Ubuntu、Intel(R) Core(TM) i7-9700@3.00 GHz CPU、64 GB內(nèi)存以及11 GB顯存的NVIDIA RTX2080Ti顯卡,深度學習框架采用的是PyTorch 1.7.1.本文采用交叉熵損失函數(shù)計算預(yù)測值與真實標簽間的損失值,并通過Adam優(yōu)化器對模型進行優(yōu)化,每批次樣本的輸入量(batch size)設(shè)置為32,總共訓練次數(shù)(epoch)為300輪,初始學習率為0.0001,每訓練150輪,學習率乘以0.5.
4.3 實驗結(jié)果及分析
4.3.1 所提模型在AISC[26]和SIRI-WHU[27]數(shù)據(jù)集上的結(jié)果及分析 為驗證本文所提出的模型在高分辨率遙感圖像場景分類任務(wù)中的性能,分別在AISC[26]和SIRI-WHU[27]數(shù)據(jù)集上開展與現(xiàn)有經(jīng)典算法的對比實驗.表1和表2分別展示了在AISC[26]數(shù)據(jù)集和SIRI-WHU[27]數(shù)據(jù)集上與現(xiàn)有方法在總體分類準確率上的對比.如表1和表2所示,本文所提算法在兩個數(shù)據(jù)集上的整體分類準確率達到最高,相較于baseline網(wǎng)絡(luò)[26]在AISC[26]和SIRI-WHU[27]上分別提高了7.53%和9.83%.而相對于ResNet-50[13]和ViT[17]算法,也有顯著的提高.由此可見,本文所提算法中的CBAM模塊能捕捉多尺度特征中的位置信息和空間信息從而將特征精細化,而通過特征融合模塊能夠有效聚合多尺度特征中的局部紋理信息和全局語義信息,從而產(chǎn)生多通道特征,最后通道間Transformer對不同通道的特征信息進行有效的位置推理,在高維空間中捕捉其局部-全局特征間的依賴關(guān)系,實現(xiàn)了較好的分類精度.在參數(shù)量、計算量以及推理速度方面,本文所提出的多通道自注意力網(wǎng)絡(luò)由于引入了Transformer Encoder,而Transformer Encoder主要由多頭自注意力機制以及多層感知機(Multi-Layer Perception, MLP)構(gòu)成,在多頭自注意力機制中模型的復(fù)雜度與tokens的HW成二次關(guān)系,其中HW表示特征圖的高和寬,同時MLP主要由全連接層構(gòu)成,所以帶來了一定的計算量及參數(shù)量,但是實驗結(jié)果表明,多頭自注意力機制更有利于在高層視覺任務(wù)中對全局語義信息的挖掘,從而有效提升了模型性能.文獻[19]引入了圖神經(jīng)網(wǎng)絡(luò),由于圖神經(jīng)網(wǎng)絡(luò)獨特的結(jié)構(gòu),以節(jié)點和邊界傳遞特征信息,所以只涉及基本的線性計算,因此不會帶來大量的參數(shù).在推理速度方面,本文計算出了在測試過程中推理一張圖片所需要的時間,結(jié)果如表1[26]及表2[27]所示.RTRMM[19]由于作者未公開源碼所以推理時間無法計算.
圖6和圖7分別展示了本文所提算法在AISC[26]和SIRI-WHU[27]數(shù)據(jù)集上的混淆矩陣.主對角線表示每類場景的分類準確率,即召回率(Recall).Kappa系數(shù)可用于驗證模型的一致性,由混淆矩陣計算得出.由圖6可以計算得出,本模型在AISC[26]上的Kappa=0.949,表明本模型的多分類精度較高,一致性較強.同時,在AISC[26]數(shù)據(jù)集上每個場景正確分類的準確率都達到了93%以上,但是residential和industrial分別被錯分為commercial和road的比例均為3%,對數(shù)據(jù)樣本仔細分析后發(fā)現(xiàn),residential和commercial具有相似的紋理和顏色,同時其地物目標的排列方式也有相同的規(guī)律,這就導(dǎo)致了極大的類間相似性,使得模型對這兩類場景的識別造成了一定的困難;其次,對比industrial樣本和road樣本時,發(fā)現(xiàn)兩者的顏色特征近乎一致,同時其industrial的圖像內(nèi)也包含了眾多road的特征,這也就造成了少許比例的誤判.
在圖7中,Kappa=0.934,同樣表明了本文所提算法在公開數(shù)據(jù)集SIRI-WHU[27]上的多分類性能較好,一致性較強,所有場景的分類準確率都在83%以上,其中agriculture和water的準確率達到了100%,表明這兩種場景與其他場景表現(xiàn)出了不同的紋理布局和特殊的顏色及結(jié)構(gòu)特征,然而對于harbor場景,與water和river的顏色信息極為相似,分別導(dǎo)致了4%的錯分率,而overpass在結(jié)構(gòu)上與harbor相似,同樣有4%的錯分率.由于river與pond有較大的類間相似性,具體表現(xiàn)在整體結(jié)構(gòu)、場景目標以及顏色分布,導(dǎo)致了分類準確率僅有83%,被錯分為harbor的比例達到8%.除此之外,其余十類場景都表現(xiàn)出了較高的分類準確率,均達到90%以上.
4.3.2通道推理對比實驗 為驗證基于多頭自注意力的通道間Transformer(Inter-Channel Transformer, ICT)和通道注意力(Convolutional Block Attention Module, CBAM)[28]在推理性能及推理速度方面的差異,本文設(shè)計了相關(guān)的對比試驗,實驗結(jié)果如表3所示.在驗證通道注意力時,本文采用CBAM中的通道注意力部分替換ICT中的Transformer Encoder,通道注意力模塊首先對融合多尺度特征后的特征表示做全局平均池化和最大池化處理,隨后通過多層感知機(Multi-Layer Perception, MLP)以及激活函數(shù)求得通道注意力權(quán)重,將融合后的特征與權(quán)重矩陣相乘得到經(jīng)通道注意力加權(quán)后的特征表示.由于在通道注意力中為了降低計算量采用了池化操作,因此會損失較多的信息,同時針對場景分類這一高層視覺任務(wù),語義信息對于精準區(qū)分類間差異性有著較大的作用,而語義信息的獲取與特征圖中的感受野有直接關(guān)系.較大的感受野能有效捕捉場景中的語義類,然而通道注意力不能顯著增加特征圖的感受野,因此在全局語義特征的獲取上較ICT有一定的差距.實驗結(jié)果證明,ICT得益于Transformer Encoder中的多頭自注意力機制,在建立長距離特征依賴關(guān)系時有著明顯的優(yōu)勢,同時通過恒等映射及矩陣縮放點乘產(chǎn)生注意力權(quán)重時不會帶來信息的大量損失.在AISC[26]中,由于數(shù)據(jù)集較為簡單,語義類別僅有6類,類間差異性較大.因此ICT和通道注意力在推理性能方面相差不大.在總體分類準確率(OA)上采用ICT的模型僅比采用通道注意力的高0.4個百分點.但是在數(shù)據(jù)集SIRI-WHU[27]中,由于場景類別較多,達到12類,同時類間的差異性相對較小,對于精準分類帶來了較大的困難,因此對模型的推理能力也帶來了更大的考驗.此時采用通道注意力相比于采用ICT,OA低了5.42個百分點.由此可見,在相對復(fù)雜的數(shù)據(jù)集中,通道間Transformer(ICT)較于通道注意力在通道推理上有著更強的性能.
4.3.3 消融實驗 本文設(shè)計了系列消融實驗,以此驗證模型中CBAM和ICT模塊的有效性.如表4和表5所示.
(1) 即僅使用多分辨率特征融合網(wǎng)絡(luò)(Multi-Resolution Feature Network,MRFN),整體分類準確率分別僅為88.17%和84.17%.
(2) 在MRFN中的BasicBlock模塊中添加CBAM后,可以看出其OA分別增加了4.54個百分點和6.45個百分點,由此可見CBAM有效聚合了特征空間中的通道信息和空間信息,增強了模型的特征表達能力.
(3) 當僅用ICT對多通道特征在高維空間中建模時,OA分別從88.17%和84.17%提升到了91.70%和91.04%,由此可見,ICT模塊有效實現(xiàn)了從局部特征到全局特征的跨越,其捕捉的高維語義結(jié)構(gòu)信息表達了圖像最本質(zhì)的屬性,因此提高了整體分類精度.注意到,在CBAM和ICT的雙重加持下,使得本文模型的性能在baseline的基礎(chǔ)上提升較大,整體分類準確率超過了一些經(jīng)典算法.
5 結(jié) 語
遙感圖像具有分辨率高、場景信息復(fù)雜且地物目標分辨率差異較大等特點.考慮到現(xiàn)有方法不能很好地聚合遙感圖像中復(fù)雜的空間信息和通道信息,也不能捕捉長距離依賴關(guān)系,本文充分融合基于多尺度特征的卷積神經(jīng)網(wǎng)絡(luò)和基于自注意力機制的通道間Transformer(Inter-Channel Transformer, ICT),提出了多通道自注意力網(wǎng)絡(luò).利用卷積神經(jīng)網(wǎng)絡(luò)提取精細化的多尺度特征,對多尺度特征加權(quán)融合之后產(chǎn)生多通道特征,通過ICT建立全局感受野捕捉高維結(jié)構(gòu)信息,有效提升了模型的性能.同時在AISC和SIRI-WHU數(shù)據(jù)集上分別達到了95.70%和94.00%的優(yōu)異性能,證明了本文所提模型在高分辨率遙感圖像場景分類上的可行性.但是對于類間相似性較大的場景,例如結(jié)構(gòu)、顏色信息接近的場景,本文算法會造成一定的誤判幾率.如何針對相似的場景精確捕捉其中細微的差別,以及融合其他多源大數(shù)據(jù)設(shè)計新的分類模型,從而進一步提高分類精度是下一步研究方向.
參考文獻:
[1] 楊帆.航測遙感技術(shù)探析[J]. 科技創(chuàng)新與應(yīng)用, 2017, 27: 43.
[2] 張裕, 楊海濤, 袁春慧. 遙感圖像分類方法綜述[J]. 兵器裝備工程學報,? 2018,? 39: 108.
[3] Fauvel M,Tarabalka Y,Benediktsson J A,et al. Advances in Spectral-Spatial classification of hyperspectral images [J]. P IEEE,? 2013,? 101: 652.
[4] Martha T R, Kerle N, van Westen C J, et al. Segment optimization and data-driven thresholding for knowledge-based landslide detection by object-based image analysis [J]. IEEE T Geosci Remote,? 2011,? 49: 4928.
[5] Cheng G,? Guo L,? Zhao T,? et al. Automatic landslide detection from remote-sensing imagery using a scene classification method based on BoVW and pLSA [J]. Int J Remote Sens,? 2013,? 34: 45.
[6] Lv Z Y, Shi W, Zhang X, et al. Landslide inventory mapping from bitemporal high-resolution remote sensing images using change detection and multiscale segmentation[J]. IEEE J-Stars,? 2018,? 11: 1520.
[7] Zhang Y S,? Wu L,? Ren H Z,? et al. Mapping water quality parameters in urban rivers from hyperspectral images using a new self-adapting selection of multiple artificial neural networks[J]. Remote Sens-Basel,? 2020,? 12: 336.
[8] Veraverbeke S,? Dennison P,? Gitas I, et al. Hyperspectral remote sensing of fire: state-of-the-art and future perspectives[J]. Remote Sens Environ,? 2018,? 216: 105.
[9] Cheng G,? Han J W,? Lu X Q. Remote sensing image scene classification: benchmark and state of the art[J]. Proc IEEE,? 2017,? 105: 1865.
[10] Li W M,? Liu H Y,? Wang Y,? et al. Deep learning-based classification methods for remote sensing images in urban built-up areas [J]. IEEE Access,? 2019,? 7: 36274.
[11] 趙理君, 唐娉, 霍連志, 等. 圖像場景分類中視覺詞包模型方法綜述[J]. 中國圖象圖形學報, ?2014,? 19: 333.
[12] Simonyan K,? Zisserman A. Very deep convolutional networks for large-scale image recognition [EB/OL]. [2014-09-04]. https://arxiv.org/abs/1409.1556.
[13] He K,? Zhang X,? Ren S,? et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Las Vegas,? USA: IEEE,? 2016.
[14] Han J,? Zhang D,? Cheng G, et al. Advanced deep-learning techniques for salient and category-specific object detection: a survey[J]. IEEE Signal Proc Mag,? 2018,? 35: 84.
[15] 張意, 闞子文, 邵志敏, 等. 基于注意力機制和感知損失的遙感圖像去噪[J]. 四川大學學報: 自然科學版,? 2021,? 58: 042001.
[16] 池濤, 王洋, 陳明. 多層局部感知卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類[J]. 四川大學學報: 自然科學版,? 2020,? 57: 103.
[17] Dosovitskiy A,? Beyer L,? Kolesnikov A,? et al. An image is worth 16x16 words: Transformers for image recognition at scale [EB/OL]. [2020-10-22]. https://arxiv.org/abs/2010.11929.
[18] 李彥甫, 范習健, 楊緒兵, 等. 基于自注意力卷積網(wǎng)絡(luò)的遙感圖像分類[J]. 北京林業(yè)大學學報,? 2021,? 43: 81.
[19] Li J,? Weinmann M,? Sun X,? et al. Random topology and random multiscale mapping: an automated design of multiscale and lightweight neural network for remote sensing image recognition[J]. IEEE T Geosci Remote,? 2021,? 60: 1.
[20] 施慧慧, 徐雁南, 滕文秀, 等. 高分辨率遙感影像深度遷移可變形卷積的場景分類法[J]. 測繪學報,? 2021,? 50: 652.
[21] 王李祺, 張成, 侯宇超, 等. 基于深度學習特征融合的遙感圖像場景分類應(yīng)用[J].南京信息工程大學學報: 自然科學版,? 2022,? 15: 1.
[22] 喬星星, 施文灶, 劉芫汐, 等. 基于ResNet雙注意力機制的遙感圖像場景分類[J]. 計算機系統(tǒng)應(yīng)用,? 2021,? 30: 243.
[23] 常洪彬, 李文舉, 李文輝. 基于注意力機制的航空圖像旋轉(zhuǎn)框目標檢測[J]. 吉林大學學報: 理學版, 2022, 60: 1363.
[24] 郁強, 王寬, 王海. 一種多尺度YOLOv3的道路場景目標檢測算法[J]. 江蘇大學學報:自然科學版, 2021, 42: 628.
[25] 王協(xié), 章孝燦, 蘇程. 基于多尺度學習與深度卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像土地利用分類[J]. 浙江大學學報: 理學版,? 2020,? 47: 715.
[26] 劉美, 卿粼波, 韓龍玫, 等. 基于遙感影像和神經(jīng)網(wǎng)絡(luò)的城市用地功能分類[J]. 太赫茲科學與電子信息學報,? 2021,? 19: 132.
[27] Zhu Q,? Zhong Y,? Zhao B, et al. Bag-of-visual-words scene classifier with local and global features for high spatial resolution remote sensing imagery[J]. IEEE Geosci Remote S,? 2016,? 13: 747.
[28] Woo S,? Park J,? Lee J Y, et al. Cbam: convolutional block attention module[C]//Proceedings of the 2018 European conference on computer vision. Cham: Springer,? 2018.
[29] Szegedy C,? Vanhoucke V,? Ioffe S, et al. Rethinking the inception architecture for computer vision[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,? NJ: IEEE,? 2016.
[30] Liu Y,? Zhong Y,? Fei F, et al. Scene classification based on a deep random-scale stretched convolutional neural network[J]. Remote Sens-Basel,? 2018,? 10: 444.