李男 葉曉東 王 昊 黃鑫宇 陶詩(shī)飛
(南京理工大學(xué)電子工程與光電技術(shù)學(xué)院,江蘇南京 210094)
在海面監(jiān)測(cè)中,目標(biāo)檢測(cè)是極其重要的一環(huán)。無(wú)論是近海防御,還是遠(yuǎn)海防衛(wèi)都需針對(duì)特定目標(biāo)進(jìn)行位置檢測(cè),以此改善戰(zhàn)術(shù)部署和增強(qiáng)海防預(yù)警能力。合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)成像具有全天候、全天時(shí)、不受天氣影響等特點(diǎn),目前已經(jīng)成為人們對(duì)海觀測(cè)的重要手段之一[1]。相較于光學(xué)圖像,SAR 圖像中船舶目標(biāo)檢測(cè)更易受海雜波、島礁、沿岸港口等干擾,因此目標(biāo)檢測(cè)難度較大[2]。
目前主流的遙感圖像目標(biāo)檢測(cè)方法宏觀上可以分為三種,包括傳統(tǒng)算法[3-4]、機(jī)器學(xué)習(xí)算法[5-6]和深度學(xué)習(xí)算法[7-9]。其中以YOLO[10-13]算法以及Faster R-CNN[14]算法為代表的深度學(xué)習(xí)目標(biāo)檢測(cè)模型憑借其高精度、高效率、高魯棒性等優(yōu)點(diǎn),已在SAR 圖像目標(biāo)檢測(cè)中取得了廣泛應(yīng)用。文獻(xiàn)[15]提出了一種基于改進(jìn)YOLOv3 的SAR 圖像船舶檢測(cè)方法,通過(guò)改進(jìn)算法的檢測(cè)策略提升了算法對(duì)復(fù)雜場(chǎng)景下不同船舶目標(biāo)的適應(yīng)性。文獻(xiàn)[16]針對(duì)SAR 圖像中多尺度、高海況和高分辨率等檢測(cè)難點(diǎn)提出一種基于YOLOv3的改進(jìn)算法,通過(guò)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和檢測(cè)策略提升了模型的檢測(cè)精度和泛化性能。文獻(xiàn)[17]針對(duì)復(fù)雜場(chǎng)景下的船舶方向多變的問(wèn)題,基于YOLOv3提出了一種船舶方向檢測(cè)模型,通過(guò)垂直框和旋轉(zhuǎn)框的預(yù)測(cè)結(jié)果進(jìn)行目標(biāo)方位角估計(jì)校正,提升了復(fù)雜海洋背景下的船舶檢測(cè)效果。文獻(xiàn)[18]針對(duì)復(fù)雜背景下的SAR 圖像檢測(cè),在YOLOv3 上引入了視覺(jué)注意力機(jī)制,通過(guò)改進(jìn)顯著圖生成算法弱化了原圖像的背景權(quán)重,降低了復(fù)雜背景對(duì)SAR 圖像目標(biāo)檢測(cè)的干擾。文獻(xiàn)[19]針對(duì)傳統(tǒng)SAR 圖像目標(biāo)檢測(cè)易受干擾的問(wèn)題,提出一種改進(jìn)YOLOv3 的船舶檢測(cè)方法,通過(guò)加入可變性卷積、ResNet50 和ShuffleNetv2等模塊設(shè)計(jì),提升了復(fù)雜場(chǎng)景下SAR圖像船舶檢測(cè)的效率。文獻(xiàn)[20]提出了一種基于YOLOv3 的改進(jìn)算法,通過(guò)對(duì)機(jī)場(chǎng)區(qū)域灰度特征的精細(xì)化提取和飛機(jī)目標(biāo)粗檢測(cè)提升了復(fù)雜環(huán)境大場(chǎng)景SAR圖像中飛機(jī)目標(biāo)的檢測(cè)能力。
基于YOLO算法的目標(biāo)檢測(cè)技術(shù)近年來(lái)在光學(xué)圖像上已經(jīng)取得較大的進(jìn)展,但是在SAR 圖像中目標(biāo)檢測(cè)仍然存在一定瓶頸。針對(duì)復(fù)雜場(chǎng)景下SAR圖像目標(biāo)檢測(cè)中目前存在的問(wèn)題,本文基于最新YOLOv5 的研究成果,首次將融合自適應(yīng)注意力模塊的YOLOv5網(wǎng)絡(luò)用于SAR圖像船舶檢測(cè)中。通過(guò)在YOLOv5的特征預(yù)測(cè)結(jié)構(gòu)中引入自適應(yīng)注意力模塊,提升復(fù)雜背景下船舶目標(biāo)的特征學(xué)習(xí)能力,同時(shí)根據(jù)SAR 圖像中的船舶特性優(yōu)化檢測(cè)模型的損失函數(shù),以此改善SAR 圖像中船舶目標(biāo)的檢測(cè)效果,最后通過(guò)對(duì)比實(shí)驗(yàn)驗(yàn)證了本文算法的有效性。
YOLOv5算法是一種基于卷積神經(jīng)網(wǎng)絡(luò)的Onestage目標(biāo)檢測(cè)算法,相比于Two-stage算法速率大大提升。YOLOv5 的檢測(cè)策略為:將輸入圖像分為若干網(wǎng)格,每個(gè)網(wǎng)格對(duì)應(yīng)三種尺寸的預(yù)測(cè)框,如圖1所示,由目標(biāo)中心落入的網(wǎng)格負(fù)責(zé)預(yù)測(cè)目標(biāo)位置,最終輸出與真實(shí)框契合度最高的預(yù)測(cè)框。YOLOv5 整體網(wǎng)絡(luò)分為四個(gè)部分,第一部分Head包括數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算。數(shù)據(jù)增強(qiáng)采用Mosaic 方式,將圖像按隨機(jī)縮放、隨機(jī)裁剪和隨機(jī)排布的方式進(jìn)行拼接,增加數(shù)據(jù)集維度。自適應(yīng)錨框計(jì)算通過(guò)聚類找到適合當(dāng)前數(shù)據(jù)集使用的最佳標(biāo)記框尺寸。第二部分Backbone 為特征提取部分,包括Focus 結(jié)構(gòu)、CSP[21]結(jié)構(gòu)和SPP[22]結(jié)構(gòu),其中Focus 結(jié)構(gòu)通過(guò)對(duì)圖片的切片操作來(lái)加深圖像的特征維度。CSP結(jié)構(gòu)可以減少特征傳輸過(guò)程中的信息丟失和計(jì)算量。SPP 結(jié)構(gòu)可以擴(kuò)展網(wǎng)絡(luò)可處理的圖片類型,使網(wǎng)絡(luò)可以輸入任意長(zhǎng)寬比或任意尺度的圖像。第三部分Neck 為特征融合部分,由PANET[23]構(gòu)成。PANET 網(wǎng)絡(luò)是在FPN[24]的基礎(chǔ)上增加了額外的信息傳輸路徑,豐富了網(wǎng)絡(luò)的特征學(xué)習(xí)范圍。第四部分Prediction 包括預(yù)測(cè)邊界框、損失函數(shù)計(jì)算和非極大值抑制。YOLOv5 使用的損失函數(shù)由三部分組成,分別為GIoU(Generalized Intersection over Union)損失函數(shù)、目標(biāo)置信度損失函數(shù)LossObj和分類損失函數(shù)。GIoU 是一種距離函數(shù),由IoU(Inter?section over Union)計(jì)算得到,如式(1),
其中AC為預(yù)測(cè)框和真實(shí)框的最小外接矩形面積,U為AC中不屬于兩個(gè)框的區(qū)域面積。目標(biāo)置信度損失函數(shù)可以反映預(yù)測(cè)框內(nèi)存在目標(biāo)的概率隨訓(xùn)練步數(shù)的變化趨勢(shì),通過(guò)Focalloss[25]計(jì)算得出,如式(2),
其中Obj 為預(yù)測(cè)框內(nèi)元素,α可以平衡正負(fù)樣本的重要性,γ用來(lái)減少易分類樣本的權(quán)重,pos 為目標(biāo)集合,neg 為背景集合,為對(duì)應(yīng)第i個(gè)格子的第j個(gè)預(yù)測(cè)框中包含目標(biāo)的置信度,計(jì)算公式如式(3),
其中Pr是目標(biāo)的先驗(yàn)分類概率。非極大值抑制思想是搜索并抑制局部最大值,在目標(biāo)檢測(cè)的過(guò)程中,由于每個(gè)目標(biāo)都會(huì)產(chǎn)生一定數(shù)量的候選框,因此當(dāng)圖像中某些區(qū)域內(nèi)目標(biāo)排列密度較大時(shí),需要使用非極大值抑制降低冗余邊界框?qū)W(wǎng)絡(luò)參數(shù)更新的影響。
針對(duì)原始算法以同等關(guān)注度遍歷圖像所有區(qū)域而造成網(wǎng)絡(luò)對(duì)特征差異不敏感的問(wèn)題,在YO?LOv5 算法上引入自適應(yīng)注意力特征加強(qiáng)模塊AAM(Adaptive Attention Module),結(jié)構(gòu)如圖2。其中通道注意力模塊和空間注意力模塊的排布順序參考了Hu[26]等人和Woo[27]等人基于不同的注意力模塊排列順序在神經(jīng)網(wǎng)絡(luò)上的測(cè)試結(jié)果,通道注意力模塊在前空間注意力模塊在后的順序性能最優(yōu)。
設(shè)F(i,j,z) ∈RH×W×C為輸入自適應(yīng)注意力模塊的特征圖,H代表特征圖的長(zhǎng)度,W代表特征圖的寬度,C為輸入特征圖的通道數(shù),則i∈[1,H],j∈[1,W],z∈[1,C]。通道注意力模塊中,首先將輸入特征在空間維度上分別通過(guò)均值池化層和最大值池化層壓縮降維,突出通道域上的關(guān)鍵信息。然后將壓縮后的特征圖分別送入感知機(jī)層。最后把兩個(gè)特征圖結(jié)果疊加后送入激活函數(shù),得到通道注意力權(quán)重W1∈R1×1×C,如式(4),
式中σ為sigmoid 激活函數(shù),⊕為對(duì)應(yīng)元素相加,ATavg,ATmax分別為均值池化層和最大值池化層,如式(5)和(6),
fMLP是由自適應(yīng)卷積層f1×m和ReLU 激活函數(shù)共同組成的感知機(jī),如式(7),
式中A為送入fMLP中的特征矩陣,f1×1×m為一維卷積,由m個(gè)參數(shù)信息組成,m和特征通道數(shù)C的關(guān)系,如式(8),
由于通道維數(shù)C通常為2的倍數(shù),因此采用以2為底數(shù)的對(duì)數(shù)函數(shù)來(lái)映射fMLP中卷積核尺寸和特征通道數(shù)C的非線性關(guān)系,通過(guò)修改參數(shù)b和k可以靈活調(diào)整m值的大小,Odd 表示當(dāng)m為非整數(shù)時(shí)取最接近m值的奇數(shù),這樣可以保證卷積核的錨點(diǎn)剛好在中間,方便進(jìn)行后續(xù)的滑動(dòng)卷積,同時(shí)可以避免位置信息發(fā)生偏移。相比于全連接層,fMLP在保證捕獲通道間交互信息的同時(shí)極大的減少了模型參數(shù),降低了對(duì)原始模塊的速度影響。
通道注意力模塊輸出特征為FC∈RH×W×C,如式(9),
空間注意力模塊中,首先將輸入特征圖在通道域上分別通過(guò)均值池化層和最大值池化層壓縮降維,突出空間域上的背景和目標(biāo)差異。然后將壓縮后的特征圖在通道域拼接。最后經(jīng)組成的卷積層調(diào)整通道深度后送入激活函數(shù),得到空間注意力權(quán)重W2∈RH×W×1,如式(10),
在進(jìn)行池化操作時(shí),兩個(gè)注意力模塊都同時(shí)使用了平均值池化和最大值池化。平均值池化更側(cè)重反應(yīng)特征圖中的背景信息,而最大值池化只對(duì)特征圖中響應(yīng)最大的像素點(diǎn)有反饋,更能突出圖像中的目標(biāo)信息,因此經(jīng)過(guò)兩個(gè)池化層后,網(wǎng)絡(luò)會(huì)對(duì)圖像中目標(biāo)和背景之間的差異更敏感。
空間注意力模塊輸出特征為FS∈RH×W×C,如式(11),
最終在YOLOv5 網(wǎng)絡(luò)中使用FS預(yù)測(cè)船舶目標(biāo)的位置,通過(guò)對(duì)傳遞特征的篩選加權(quán),增強(qiáng)了網(wǎng)絡(luò)對(duì)船舶目標(biāo)的學(xué)習(xí)能力。
圖3 為改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu),將混合注意力模塊加在YOLOv5 的預(yù)測(cè)部分之前,使網(wǎng)絡(luò)在注意力模塊輸出的全局注意力圖上預(yù)測(cè)目標(biāo)。由于原YO?LOv5網(wǎng)絡(luò)中特征提取部分有大量的殘差連接,因此加入注意力模塊時(shí)需要做一定的調(diào)整,將原網(wǎng)絡(luò)特征提取部分中所有的殘差連接進(jìn)行替換。圖4為系統(tǒng)檢測(cè)流程圖。
原始YOLOv5網(wǎng)絡(luò)中使用的置信度損失函數(shù)為focal loss 函數(shù),其對(duì)正負(fù)樣本疊加的損失權(quán)重很接近,且重點(diǎn)關(guān)注的是較難檢測(cè)的目標(biāo),因此在訓(xùn)練SAR 圖像時(shí)會(huì)存在一些問(wèn)題。大場(chǎng)景SAR 圖像中船舶目標(biāo)極小,導(dǎo)致正負(fù)樣本數(shù)量極不均衡,如果以同等關(guān)注度對(duì)待正負(fù)樣本損失,不僅會(huì)降低網(wǎng)絡(luò)的收斂速度,而且不利于保留對(duì)目標(biāo)的學(xué)習(xí)信息。原損失函數(shù)把網(wǎng)絡(luò)的重點(diǎn)放在了低質(zhì)量的樣本中,這會(huì)降低目標(biāo)檢測(cè)模型參數(shù)的更新效率,直接影響后續(xù)的檢測(cè)結(jié)果。參考Cao 和Chen[28]等對(duì)樣本優(yōu)先級(jí)的研究,IoU 較高的正樣本會(huì)對(duì)目標(biāo)檢測(cè)產(chǎn)生較大的影響,主要影響體現(xiàn)在檢測(cè)結(jié)果的召回率上。因?yàn)樵谀繕?biāo)排布較為密集時(shí),非極大值抑制算法會(huì)根據(jù)區(qū)域內(nèi)的最高得分預(yù)測(cè)框來(lái)排除冗余預(yù)測(cè)框的干擾,此時(shí)高分預(yù)測(cè)框會(huì)影響后續(xù)的篩選結(jié)果。因此本文借鑒注意力機(jī)制的思想,通過(guò)調(diào)整模型對(duì)正負(fù)樣本和不同檢測(cè)難度正樣本的關(guān)注度改進(jìn)了原始的focal loss損失函數(shù),如式(12),
其中是網(wǎng)絡(luò)輸出預(yù)測(cè)框的置信度,q是目標(biāo)IoU分?jǐn)?shù)。對(duì)于訓(xùn)練中得分較高的正樣本,模型會(huì)加大其所占的損失權(quán)重,對(duì)于訓(xùn)練中的負(fù)樣本q均為0。負(fù)樣本損失中加入了γ降權(quán),而正樣本損失計(jì)算時(shí)并沒(méi)有引入γ,因此可以在不影響正樣本權(quán)重的前提下,有效降低負(fù)樣本損失的權(quán)重。為了平衡q,針對(duì)負(fù)樣本損失使用α進(jìn)行降權(quán)。最終使網(wǎng)絡(luò)將訓(xùn)練重點(diǎn)聚焦在高質(zhì)量的正樣本中。
本文數(shù)據(jù)計(jì)算使用操作系統(tǒng)為Windows10,使用CUDA10.1 和cuDNN7.6.5 加速訓(xùn)練,顯卡為Ge?Force RTX 2070 SUPER,圖形處理器NVIDIA Tur?ingTM GPU,編程語(yǔ)言為python3.7,網(wǎng)絡(luò)開(kāi)發(fā)框架為Pytorch1.6,系統(tǒng)處理器為Intel?Core(TM)i7-10700K CPU@3.80 GHz。
數(shù)據(jù)集由“高分三號(hào)”衛(wèi)星拍攝的海域SAR 圖像[29-30]和存儲(chǔ)SAR 圖像中船舶位置信息的XML 文件組成。圖像尺寸為1000 像素×1000 像素,距離分辨率為1 m~5 m。圖像涵蓋遠(yuǎn)海區(qū)域和近海港口等多個(gè)場(chǎng)景,包含多種方向和比例的船舶。總數(shù)據(jù)量為305 張,按照2∶1 的比例分為訓(xùn)練集和測(cè)試集。圖5為數(shù)據(jù)集中部分SAR圖像,包含近海港口區(qū)域、海雜波干擾嚴(yán)重的區(qū)域、密集型船舶區(qū)域和稀疏型船舶區(qū)域。
本文使用的評(píng)價(jià)指標(biāo)為平均準(zhǔn)確率(Average Precision,AP)與檢測(cè)速率,檢測(cè)速率定義為每秒處理圖像的幀數(shù)(Frame Per Second,F(xiàn)PS),平均準(zhǔn)確率如式(13),
其中P(Precision)代表準(zhǔn)確率,R(Recall)代表召回率。P和R的計(jì)算公式如式(14)和(15),
其中TP(True Positive)為正確檢測(cè)目標(biāo)個(gè)數(shù),F(xiàn)P(False Positive)為錯(cuò)檢目標(biāo)個(gè)數(shù),F(xiàn)N(False Nega?tive)為漏檢目標(biāo)個(gè)數(shù)。
本文網(wǎng)絡(luò)模型中的batch size 為4,初始學(xué)習(xí)率為0.01,學(xué)習(xí)率衰減權(quán)重為0.0005,訓(xùn)練代數(shù)為300,置信度損失函數(shù)中α、γ的取值分別為0.5 和1.5。通過(guò)實(shí)驗(yàn)驗(yàn)證fMLP中k和b的最優(yōu)取值為2 和1,由于原始YOLOv5 中輸入AAM模塊的通道維度分別為256、512和1024,因此本實(shí)驗(yàn)中m的 取值為5。
模型1 為在YOLOv5 中引入自適應(yīng)注意力模塊,模型2 在模型1 的基礎(chǔ)上優(yōu)化損失函數(shù)。損失函數(shù)訓(xùn)練曲線結(jié)果如圖6 所示,由于模型1 通過(guò)注意力模塊改善了目標(biāo)的特征學(xué)習(xí)效果,獲得了更加精準(zhǔn)的預(yù)測(cè)框,因此模型損失降低,訓(xùn)練收斂速度略微提升。訓(xùn)練精度如圖7所示,模型1和模型2與傳統(tǒng)YOLOv5算法檢測(cè)精度大體一致。訓(xùn)練召回率曲線如圖8 所示,與傳統(tǒng)YOLOv5 算法相比,模型1和模型2 的召回率都顯著提升。這主要是因?yàn)槟P? 經(jīng)注意力機(jī)制加強(qiáng)特征學(xué)習(xí)后,會(huì)對(duì)存在目標(biāo)的區(qū)域投入更大的網(wǎng)絡(luò)學(xué)習(xí)權(quán)重,因此漏檢目標(biāo)減少,相較于原始算法,召回率有所提升。模型2加大了對(duì)高分預(yù)測(cè)框的關(guān)注度,降低了冗余框?qū)罄m(xù)篩選的影響,相較于模型1 獲得了更高的召回率。兩模型都未影響錯(cuò)檢目標(biāo),所以檢測(cè)精度未有明顯變化。訓(xùn)練AP 值曲線如圖9 所示,模型1 和模型2效果提升明顯,主要得益于召回率的較大提升。表1 為算法的訓(xùn)練時(shí)間,自適應(yīng)注意力模塊增加了部分的參數(shù)量,因此兩模型的訓(xùn)練時(shí)間相比于原始YOLOv5 網(wǎng)絡(luò)略微增加,但相比于使用全連接層的CBAM網(wǎng)絡(luò)訓(xùn)練速度提升。
表1 訓(xùn)練時(shí)間對(duì)比Tab.1 Comparison of training time
為了更加全面的驗(yàn)證本文提出的改進(jìn)算法在復(fù)雜場(chǎng)景下SAR 圖像中的檢測(cè)性能,除了基于注意力模型的改進(jìn)算法外,還使用Faster R-CNN 檢測(cè)方法作為對(duì)比。對(duì)比結(jié)果如表2 所示,使用本文提出的模塊,檢測(cè)平均準(zhǔn)確率明顯優(yōu)于單獨(dú)使用通道注意力的SEnet模塊和單獨(dú)使用空間注意力的SAM 模塊。本文算法平均準(zhǔn)確率和檢測(cè)速度都優(yōu)于CBAM模塊,相比于YOLOv5 算法和Faster R-CNN 算法平均準(zhǔn)確度分別提高了26.1%和17.3%。
表2 實(shí)驗(yàn)結(jié)果對(duì)比Tab.2 Comparison of experimental results
圖10為本文可視化檢測(cè)結(jié)果的對(duì)比,其中綠色標(biāo)記框?yàn)檎鎸?shí)目標(biāo)位置,紅色標(biāo)記框?yàn)閷?duì)應(yīng)算法預(yù)測(cè)的目標(biāo)位置。圖10(a)、圖10(b)是典型的受陸地影響較大的SAR 圖像,從檢測(cè)結(jié)果可以看出,原始算法漏檢一艘,而模型2將3艘船舶全部檢測(cè)到,有效降低了陸地對(duì)船舶檢測(cè)的影響。圖10(c)、圖10(d)是典型的多船舶目標(biāo)SAR 圖像,從檢測(cè)結(jié)果可以看出,原始算法對(duì)排布密集的目標(biāo)區(qū)域漏檢嚴(yán)重,而模型2 的檢測(cè)率明顯提升,有效降低了密集目標(biāo)對(duì)檢測(cè)的影響。圖10(e)、圖10(f)是典型船舶目標(biāo)信號(hào)微弱的圖像,原始算法由于對(duì)弱幅值區(qū)域關(guān)注不夠,并未檢測(cè)到圖中的目標(biāo)。模型2 將兩艘船舶全部檢測(cè)到,有效增加了對(duì)弱信號(hào)目標(biāo)的關(guān)注度。圖10(g)、圖10(h)為典型受雜波干擾的SAR 圖像,原始算法受雜波干擾并未精確學(xué)習(xí)到圖中船舶的特征,9艘船舶只檢測(cè)到3艘。模型2由于加強(qiáng)了特征學(xué)習(xí)并未受到雜波影響,9艘船舶全部檢測(cè)到,有效降低了雜波對(duì)目標(biāo)檢測(cè)的影響。圖10(i)為增加注意力機(jī)制后的模型1檢測(cè)結(jié)果,圖10(j)為增加注意力機(jī)制并改進(jìn)損失函數(shù)后的模型2檢測(cè)結(jié)果。模型1中的損失函數(shù)由于對(duì)高質(zhì)量預(yù)測(cè)框的關(guān)注度不夠,導(dǎo)致輸出預(yù)測(cè)框置信度較低,存在遮蓋和遺漏目標(biāo)區(qū)域的現(xiàn)象。經(jīng)改進(jìn)損失函數(shù)調(diào)整后,模型2預(yù)測(cè)框置信度明顯提升,且預(yù)測(cè)框可以最優(yōu)涵蓋目標(biāo)區(qū)域,最終輸出更加精確的目標(biāo)位置信息。
針對(duì)復(fù)雜場(chǎng)景下SAR圖像船舶檢測(cè)中易產(chǎn)生漏檢的問(wèn)題,本文提出了AAM-YOLOv5算法。通過(guò)在YOLOv5的特征預(yù)測(cè)結(jié)構(gòu)中引入自適應(yīng)注意力模塊,提升了船舶目標(biāo)區(qū)域的特征學(xué)習(xí)能力。同時(shí)借鑒注意力機(jī)制優(yōu)化了損失函數(shù),使模型反向更新參數(shù)時(shí)也會(huì)優(yōu)先關(guān)注重要信息,最終改善復(fù)雜場(chǎng)景區(qū)域的目標(biāo)檢測(cè)效果。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的AAM-YOLOv5 檢測(cè)算法顯著提升了召回率和輸出預(yù)測(cè)框的質(zhì)量。從檢測(cè)效率來(lái)看,本文算法增加了額外的池化層和卷積層,檢測(cè)速度相比于原始的YOLOv5 檢測(cè)算法略微降低,但是平均準(zhǔn)確率相比于原始的YOLOv5算法及Faster R-CNN 算法顯著提升,平均準(zhǔn)確率達(dá)到了79.8%。未來(lái)研究中可以圍繞算法的虛警概率和檢測(cè)速度來(lái)優(yōu)化網(wǎng)絡(luò)架構(gòu),通過(guò)降低FP值來(lái)提升檢測(cè)精度,在保證檢測(cè)精度的基礎(chǔ)上提升檢測(cè)速度。
致謝
鳴謝中國(guó)科學(xué)院空天信息創(chuàng)新研究院主辦了2020 高分遙感圖像解譯軟件大賽,并提供本研究數(shù)據(jù)集。