楊玉春,王騰軍,任會(huì)濤,楊 耘
(長(zhǎng)安大學(xué) 地質(zhì)工程與測(cè)繪學(xué)院,西安 710054)
遙感技術(shù)是20世紀(jì)60年代出現(xiàn)的一種空間信息探測(cè)技術(shù),能夠在距離被探測(cè)目標(biāo)十分遙遠(yuǎn)的位置,通過影像傳感器收集目標(biāo)輻射和反射的電磁波信息,根據(jù)物體的物理光譜特性對(duì)收集的電磁波信息進(jìn)行分析和解譯,由此實(shí)現(xiàn)對(duì)目標(biāo)地物的遠(yuǎn)距離探測(cè)。隨著航空航天技術(shù)、圖像傳感器技術(shù)和計(jì)算機(jī)技術(shù)的發(fā)展,遙感影像的空間分辨率越來越高,高分辨率遙感影像包含著更為豐富、更為細(xì)致的地物信息,推動(dòng)了遙感影像處理技術(shù)的發(fā)展和進(jìn)步。作為遙感影像處理領(lǐng)域的一個(gè)基本問題,遙感影像目標(biāo)檢測(cè)是識(shí)別給定的航空或衛(wèi)星影像是否包含一個(gè)或多個(gè)感興趣類別的目標(biāo),并確定目標(biāo)在影像中的位置的過程,其在環(huán)境監(jiān)測(cè)、地理信息系統(tǒng)更新、精準(zhǔn)農(nóng)業(yè)和城市規(guī)劃等應(yīng)用中發(fā)揮著重要作用。近年來,隨著遙感技術(shù)的迅猛發(fā)展,高分專項(xiàng)工程的實(shí)施和商業(yè)化衛(wèi)星遙感服務(wù)的興起,影像數(shù)量呈現(xiàn)爆炸式的增長(zhǎng)趨勢(shì),快速增長(zhǎng)的影像數(shù)量對(duì)目標(biāo)檢測(cè)方法提出了更高的要求。
傳統(tǒng)的遙感影像目標(biāo)檢測(cè)多采用特征工程和分類器訓(xùn)練相結(jié)合的檢測(cè)策略。例如姚遠(yuǎn)等通過提取影像的Haar和HOG特征并結(jié)合AdaBoost和SVM進(jìn)行分類實(shí)現(xiàn)了飛機(jī)目標(biāo)的檢測(cè)。黎經(jīng)元等將海陸分割與艦船目標(biāo)檢測(cè)相結(jié)合,通過分析港口中艦船的分布規(guī)律和紋理特點(diǎn),提出了一種結(jié)合邊緣線梯度定位和聚合通道特征的艦船檢測(cè)方法。此類方法的檢測(cè)效果十分依賴先驗(yàn)的特征設(shè)計(jì),且設(shè)計(jì)的特征通常只適用于特定目標(biāo),當(dāng)需要檢測(cè)多類目標(biāo)時(shí),效果往往較差。
圖1 PARF-FCOS網(wǎng)絡(luò)結(jié)構(gòu)圖
深度學(xué)習(xí)特別是深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN, deep convolutional neural network)憑借其優(yōu)秀的特征提取能力,目前已被廣泛地應(yīng)用于遙感影像目標(biāo)檢測(cè)中。當(dāng)前基于DCNN的目標(biāo)檢測(cè)算法主要被分為兩類,以R-CNN為代表的雙階檢測(cè)算法和以YOLO、SSD為代表的單階檢測(cè)算法。文獻(xiàn)[9]等通過在Faster R-CNN的基礎(chǔ)上引入STN結(jié)構(gòu),引導(dǎo)網(wǎng)絡(luò)自主學(xué)習(xí)旋轉(zhuǎn)不變特征,解決了目標(biāo)旋轉(zhuǎn)角度過大的問題。文獻(xiàn)[10]在Faster-RCNN模型中引入注意力機(jī)制,使用SE模塊校準(zhǔn)特征通道權(quán)重,以較低的計(jì)算成本獲得了顯著的性能提升。文獻(xiàn)[11]通過在SSD的基礎(chǔ)上添加注意力分支,有效的提升了網(wǎng)絡(luò)獲取目標(biāo)位置信息的能力。文獻(xiàn)[12]設(shè)計(jì)了一種基于Faster R-CNN的Radar目標(biāo)檢測(cè)模型,顯著的降低了目標(biāo)的虛警率。以上算法均是基于錨框的檢測(cè)算法,通過人工預(yù)設(shè)的錨框來預(yù)測(cè)目標(biāo)的位置,依據(jù)待檢測(cè)目標(biāo)的形狀、大小、密集程度等信息在圖像上生成大量的錨框,再通過這些錨框來進(jìn)行目標(biāo)邊界框回歸。然而預(yù)設(shè)的錨框會(huì)占用大量的存儲(chǔ)和運(yùn)算資源,導(dǎo)致模型復(fù)雜度高,計(jì)算量大。此外,錨框引入的額外超參數(shù)需要手動(dòng)設(shè)置,大幅降低了網(wǎng)絡(luò)的訓(xùn)練效率。
針對(duì)基于錨框目標(biāo)檢測(cè)算法的缺陷,許多無錨框的目標(biāo)檢測(cè)方法被提出。文獻(xiàn)[13]提出了ConerNet,該方法將目標(biāo)檢測(cè)問題轉(zhuǎn)化關(guān)鍵點(diǎn)檢測(cè)問題,通過預(yù)測(cè)目標(biāo)邊界的左上角點(diǎn)和右下角點(diǎn)實(shí)現(xiàn)目標(biāo)的檢測(cè)。文獻(xiàn)[14]提出了一種全卷積一階(FCOS, fully convolutional one-stage)目標(biāo)檢測(cè)算法,采用逐像素預(yù)測(cè)的方法對(duì)目標(biāo)進(jìn)行分類和回歸,并使用中心度預(yù)測(cè)分支來抑制低質(zhì)量檢測(cè)邊框,在COCO數(shù)據(jù)集上取得了不錯(cuò)的檢測(cè)效果。與自然場(chǎng)景圖像相比,遙感影像中目標(biāo)所處的背景信息復(fù)雜多變,且更易受到環(huán)境噪聲的干擾。此外,遙感影像中小尺度目標(biāo)居多,更容易導(dǎo)致誤檢和漏檢的發(fā)生。針對(duì)遙感影像目標(biāo)檢測(cè)中存在的難點(diǎn),本文以無錨框的FCOS檢測(cè)網(wǎng)絡(luò)為基礎(chǔ)網(wǎng)絡(luò),提出了一種結(jié)合位置注意力和感受野增強(qiáng)特征的目標(biāo)檢測(cè)算法。該算法首先設(shè)計(jì)了一種注意力模塊,并將其插入特征提取網(wǎng)絡(luò),提升網(wǎng)絡(luò)的特征提取能力;其次,使用感受野模塊處理淺層特征圖以增大感受野,獲取目標(biāo)上下文信息,提升小尺度目標(biāo)的檢測(cè)精度;此外,在訓(xùn)練過程中引入DIoU loss,使邊框回歸過程更加平穩(wěn)和準(zhǔn)確。本文將該算法簡(jiǎn)稱為PARF-FCOS。
PARF-FCOS目標(biāo)檢測(cè)算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要包括特征提取模塊、特征融合模塊和檢測(cè)模塊3個(gè)部分。特征提取模塊采用融合位置注意力(PA, position attention)的殘差網(wǎng)絡(luò)(ResNet)作為骨架網(wǎng)絡(luò),用于提取影像的多尺度特征信息,其中PA模塊引導(dǎo)網(wǎng)絡(luò)關(guān)注有用特征,抑制無用特征,從而提升特征圖的表達(dá)能力。骨架網(wǎng)絡(luò)生成特征圖C1~C5,大小分別為原圖的1/2、1/4、1/8、1/16和1/32。特征融合模塊僅處理特征圖C3、C4和C5,它先采用RFB結(jié)構(gòu)處理淺層特征圖C3,用來擴(kuò)充淺層特征的感受野大小,增強(qiáng)網(wǎng)絡(luò)獲取目標(biāo)上下文信息的能力。然后進(jìn)行特征融合,使用1×1卷積對(duì)特征圖C5進(jìn)行降維處理得到特征圖P5,經(jīng)過2倍上采樣再與特征圖C4相加,得到特征圖P4,同理特征圖P4經(jīng)過2倍上采樣再與特征圖C3相加,得到特征圖P3。此外,模型還在特征圖P5的基礎(chǔ)上通過兩個(gè)步長(zhǎng)為2的3×3卷積得到兩個(gè)深層特征圖P6、P7,大小為原圖的1/64和1/128。將特征圖P3、P4、P5、P6、P7輸入檢測(cè)模塊進(jìn)行預(yù)測(cè),預(yù)測(cè)信息包括目標(biāo)類別得分、中心度預(yù)測(cè)值和邊框回歸參數(shù)。最后利用非極大值抑制算法濾除得分較低的預(yù)測(cè)框,得到最終檢測(cè)結(jié)果。
圖2 位置注意力模塊結(jié)構(gòu)圖
(1)
(2)
S
=σ
(F
(δ
(F
(Z
))))(3)
S
=σ
(F
(δ
(F
(Z
))))(4)
式中,F
、F
表示1×1卷積,δ
為非線性函數(shù),σ
為Sigmoid函數(shù)。最后S
和S
之間相互協(xié)作,調(diào)整特征權(quán)重,計(jì)算公式為:(5)
FCOS使用ResNet50作為特征提取網(wǎng)絡(luò),ResNet50由多個(gè)殘差結(jié)構(gòu)單元堆疊而成,通過卷積融合局部感受野內(nèi)的空間和通道信息來提取圖像特征,并且默認(rèn)所有特征的權(quán)重相等。然而在特征提取的過程中,網(wǎng)絡(luò)應(yīng)當(dāng)“重視”有用特征,“忽視”無用特征和作用小的特征。因此,本文在殘差結(jié)構(gòu)中添加PA模塊來重標(biāo)定特征權(quán)重,提升網(wǎng)絡(luò)的表達(dá)能力,使模型判斷更加準(zhǔn)確。添加PA模塊后的殘差結(jié)構(gòu)如圖3所示,其中前3個(gè)卷積層用來提取特征信息,PA模塊用來調(diào)整特征權(quán)重,短路連接用來傳遞跨層信息。
圖3 帶有位置注意力的殘差結(jié)構(gòu)
基于上述的注意力殘差結(jié)構(gòu),構(gòu)造了位置注意力網(wǎng)絡(luò)PA-Net。ResNet50和PA-Net的結(jié)構(gòu)參數(shù)如表1所示。
表1 特征提取網(wǎng)絡(luò)參數(shù)
r
=3),連續(xù)的1×1、3×3、3×3和3×3(r
=5),對(duì)應(yīng)的感受野大小分別為3×3,9×9,15×15。將各卷積分支的輸出特征進(jìn)行拼接,利用1×1卷積進(jìn)行特征融合,最后使用殘差連接與原始特征進(jìn)行相加。圖4 RFB結(jié)構(gòu)圖
為了優(yōu)化邊界框的回歸過程,引入距離交并比損失(DIoU loss)作為邊界框回歸的損失函數(shù),DIoU loss的計(jì)算公式為:
(6)
式中,B
為目標(biāo)真實(shí)框,B
為目標(biāo)預(yù)測(cè)框,b
為預(yù)測(cè)框坐標(biāo)中心點(diǎn),b
為真實(shí)框坐標(biāo)中心點(diǎn),ρ
為兩框中心點(diǎn)之間的歐式距離。c
為能同時(shí)覆蓋預(yù)測(cè)框和真實(shí)框的最小外接矩形的對(duì)角線長(zhǎng)度。與原網(wǎng)絡(luò)使用的IOU loss相比,DIOU loss額外考慮了真實(shí)框與預(yù)測(cè)框之間的距離,使邊框回歸更加準(zhǔn)確,同時(shí)還避免了兩框之間距離過遠(yuǎn)而導(dǎo)致的梯度消失的問題。為了驗(yàn)證PARF-FCOS目標(biāo)檢測(cè)算法的性能,本文在大型遙感影像目標(biāo)檢測(cè)數(shù)據(jù)集DIOR上進(jìn)行了實(shí)驗(yàn)。DIOR數(shù)據(jù)集由西北工業(yè)大學(xué)于2020年發(fā)布,包含來自Google Earth的23 463幅光學(xué)遙感影像,影像尺寸大小統(tǒng)一至800像素×800像素,空間分辨率范圍從0.5 m到30 m。數(shù)據(jù)集共包含192 472個(gè)實(shí)例對(duì)象,每個(gè)實(shí)例對(duì)象均采用水平邊框進(jìn)行標(biāo)注,覆蓋飛機(jī)、棒球場(chǎng)、汽車、大壩、立交橋、港口等20個(gè)目標(biāo)類別。數(shù)據(jù)集隨機(jī)地選取了11 725幅影像作為訓(xùn)練集,11 738幅影像作為測(cè)試集,各占數(shù)據(jù)集總量的50%。
使用平均精確度(AP
)、平均精確度均值(mAP
)和每秒幀率(FPS
)來評(píng)估網(wǎng)絡(luò)的性能。AP
用于評(píng)價(jià)單類目標(biāo)的檢測(cè)精度,由精確率(P
)和召回率(R
)計(jì)算得到。P
表示預(yù)測(cè)正確的正樣本數(shù)占預(yù)測(cè)為正樣本總數(shù)的比率,R
表示預(yù)測(cè)正確的正樣本數(shù)正樣本總數(shù)的比率,是目標(biāo)檢測(cè)領(lǐng)域內(nèi)的重要精度指標(biāo),計(jì)算公式如下:(7)
(8)
其中:N
表示正樣本被正確識(shí)別為正樣本的數(shù)量,N
表示負(fù)樣本被錯(cuò)誤識(shí)別為正樣本的數(shù)量,N
表示正樣本被錯(cuò)誤識(shí)別為負(fù)樣本的數(shù)量。AP
值為P
隨R
的變化曲線即P
-R
曲線與坐標(biāo)軸圍成的面積,計(jì)算公式為:(9)
mAP
用來評(píng)價(jià)模型的整體檢測(cè)精度,由各類目標(biāo)的AP
值取平均得到:(10)
其中:n
為數(shù)據(jù)集中目標(biāo)類別數(shù)。本文網(wǎng)絡(luò)的訓(xùn)練和測(cè)試均在深度學(xué)習(xí)服務(wù)器上進(jìn)行,服務(wù)器的處理器(CPU)為Intel(R)Xeon(R)Gold 6248,顯卡(GPU)為Tesla V100,操作系統(tǒng)為CentOS7.5,使用Python3.7編程語言和Pytorch1.6深度學(xué)習(xí)框架搭建網(wǎng)絡(luò),并結(jié)合CUDA10.0和CUDNN7.6工具包進(jìn)行加速,具體的配置信息如表2所示。
表2 實(shí)驗(yàn)配置
訓(xùn)練PARF-FCOS目標(biāo)檢測(cè)算法的損失函數(shù)由分類損失函數(shù)、邊界框回歸損失函數(shù)和邊框中心度損失函數(shù)三部分組成,計(jì)算公式如下:
(11)
本文在DIOR數(shù)據(jù)集上對(duì)PARF-FCOS進(jìn)行訓(xùn)練,訓(xùn)練步驟如下:
1)使用Pytorch深度學(xué)習(xí)框架搭建網(wǎng)絡(luò)模型;
2)選擇隨機(jī)梯度下降法(SGD, stochastic gradient descent)作為網(wǎng)絡(luò)的優(yōu)化器,其中動(dòng)量和權(quán)重衰減系數(shù)分別設(shè)置為0.9和0.000 5;
3)初始學(xué)習(xí)率設(shè)置為0.005,并且在訓(xùn)練過程中使用余弦學(xué)習(xí)率策略將學(xué)習(xí)率降低至原來的1/10,保證網(wǎng)絡(luò)在訓(xùn)練過程中能夠更快地收斂;
4)每批次送入8張影像進(jìn)行正向傳播,計(jì)算網(wǎng)絡(luò)的損失值;
5)依據(jù)損失值反向計(jì)算參數(shù)的梯度,并跟據(jù)梯度調(diào)整網(wǎng)絡(luò)參數(shù);
6)重復(fù)步驟4)~5)直到網(wǎng)絡(luò)收斂或者達(dá)到最大迭代次數(shù)。
在訓(xùn)練了90個(gè)epoch,迭代了125 000多次后,模型的損失趨于穩(wěn)定,總損失大致穩(wěn)定在0.7左右,損失變化情況如圖5所示。
圖5 損失變化情況
為了驗(yàn)證本文算法在遙感影像目標(biāo)檢測(cè)任務(wù)上的有效性與可靠性,將其與當(dāng)前一些典型檢測(cè)算法在DIOR數(shù)據(jù)集上進(jìn)行精度對(duì)比。實(shí)驗(yàn)結(jié)果如表3所示??梢钥闯?,各網(wǎng)絡(luò)模型在DIOR數(shù)據(jù)集上均取得了一定的檢測(cè)效果。從單類別的AP值來看,PARF-FCOS在籃球場(chǎng)、橋梁、煙囪等8個(gè)類別上取得了最高檢測(cè)精度,與基準(zhǔn)網(wǎng)絡(luò)FCOS相比,PARF-FCOS對(duì)火車站、高爾夫球場(chǎng)和機(jī)場(chǎng)的提升效果明顯,分別提升了9.5%、8.4%和7.1%,同時(shí)對(duì)于汽車、艦船和飛機(jī)這些小尺度目標(biāo)也有提升,分別提升了6.3%、5.4%和5.3%;從整體檢測(cè)精度mAP來看,PARF-FCOS領(lǐng)先于其它對(duì)比檢測(cè)模型,其中,與Faster R-CNN相比提升了16.3%,與采用了特征金字塔網(wǎng)絡(luò)的Faster R-CNN相比提升了7.3%,與YOLOv3相比提升了13.3%,與CornerNet相比提升了5.5%,與FCOS相比提升了4.3%,同時(shí)本文網(wǎng)絡(luò)也超過了高性能的YOLOv5檢測(cè)模型。充分地證明了PARF-FCOS目標(biāo)檢測(cè)模型的有效性和可靠性。
表3 不同算法的檢測(cè)結(jié)果
為了分析PARF-FCOS中各個(gè)改進(jìn)模塊對(duì)于模型的影響,本文在FCOS模型的基礎(chǔ)上依次對(duì)PA-Net、RFB和DIoU loss的有效性進(jìn)行了實(shí)驗(yàn)驗(yàn)證。經(jīng)過實(shí)驗(yàn)發(fā)現(xiàn),以上方法均能提升網(wǎng)絡(luò)性能,實(shí)驗(yàn)結(jié)果如表4所示。從檢測(cè)精度上看,原始FCOS算法在DIOR數(shù)據(jù)集上取得了66.1%的mAP值,而采用PA-Net提取特征后,取得了69.3%的mAP值,提升了3.2%,這說明添加PA模塊有效的提升了網(wǎng)絡(luò)的特征提取能力,這是因?yàn)樵赑A模塊的作用下,特征中的背景噪音等無用信息得到抑制,更有利于網(wǎng)絡(luò)提取目標(biāo)的有用信息,提高目標(biāo)信息的利用率。在加入RFB后,網(wǎng)絡(luò)取得了69.9%的mAP值,提升了0.6%,說明RFB能夠增強(qiáng)淺層特征的目標(biāo)響應(yīng),其原因是RFB的多分支結(jié)構(gòu)具有更大的感受野,能夠提取更加全面和豐富的上下文信息,彌補(bǔ)了淺層特征在感受野上的不足。在引入DIoU loss訓(xùn)練網(wǎng)絡(luò)后,mAP值提升0.5%達(dá)到了70.4%,驗(yàn)證了DIoU loss能使邊界框的回歸過程更加準(zhǔn)確,有效地提升了邊界框坐標(biāo)的預(yù)測(cè)精度。從檢測(cè)速度上看,PA模塊和RFB在一定程度上增加了模型的計(jì)算量,檢測(cè)速度分別下降了4.6FPS和0.9FPS,而引入DIoU loss訓(xùn)練并不會(huì)影響檢測(cè)速度,最終網(wǎng)絡(luò)的檢測(cè)速度達(dá)到23.2FPS,仍然能滿足實(shí)時(shí)檢測(cè)的要求。
表4 各模塊有效性驗(yàn)證結(jié)果
為了進(jìn)一步驗(yàn)證PA-Net的優(yōu)勢(shì),將其與經(jīng)典注意力網(wǎng)絡(luò)SE-Net和CBAM-Net進(jìn)行了對(duì)比,其中SE-Net和CBAM-Net表示將PA-Net中的PA模塊替換成相應(yīng)的注意力模塊,其余網(wǎng)絡(luò)參數(shù)均保持一致,實(shí)驗(yàn)結(jié)果如表5所示。原始網(wǎng)絡(luò)取得了66.1%的mAP值和28.7 FPS,采用SE-Net、CBAM-Net和PA-Net后分別取得了67.9%、68.4%和69.3%的mAP值,分別提升了1.8%、2.3%和3.2%,相應(yīng)的檢測(cè)速度分別為27.6 FPS、21.7 FPS和24.1 FPS。與SE-Net相比,采用PA-Net的mAP提高了1.4%,檢測(cè)速度下降了3.5 FPS,說明空間位置信息有利于目標(biāo)檢測(cè)精度的提升,PA模塊通過雙注意力分支結(jié)構(gòu)有效的利用了空間位置信息,增強(qiáng)了網(wǎng)絡(luò)的性能,但是PA模塊的計(jì)算量較SE模塊有所增加,導(dǎo)致檢測(cè)速度有所降低。與CBAM-Net相比,采用PA-Net后的mAP提高了0.9%,檢測(cè)速度提高了2.4 FPS,可以看出,相較于CBAM使用卷積獲得的局部空間位置關(guān)系,PA模塊通過一維平均池化能夠捕獲到更具代表性的全局位置信息,更有利于網(wǎng)絡(luò)性能的提升,并且PA模塊的計(jì)算量更少,檢測(cè)速度更快。
表5 注意力網(wǎng)絡(luò)對(duì)比結(jié)果
為了直觀地展示本文算法的檢測(cè)效果,本文對(duì)多類場(chǎng)景下的多種目標(biāo)的檢測(cè)結(jié)果進(jìn)行了可視化,如圖6所示,其中6(a)為FCOS的可視化結(jié)果,6(b)為改進(jìn)模型PARF-FCOS的可視化結(jié)果。從圖中可以看出,PARF-FCOS的檢測(cè)結(jié)果較FCOS的檢測(cè)結(jié)果更為準(zhǔn)確,有效地改善了漏檢、錯(cuò)檢等現(xiàn)象,如第1行對(duì)比圖所示,F(xiàn)COS漏檢了影像中的小目標(biāo)“汽車”和“立交橋”等目標(biāo)(圓圈標(biāo)出),而PARF-FCOS能有效的檢測(cè)出來;在第2行對(duì)比圖中,F(xiàn)COS產(chǎn)生了低質(zhì)量的冗余框,而PARF-FCOS的邊框更加準(zhǔn)確;在第3行結(jié)果圖中,F(xiàn)COS將影像中的“立交橋”識(shí)別為“橋梁”,將“飛機(jī)”識(shí)別為“風(fēng)力機(jī)”(圓圈標(biāo)出),而PARF-FCOS均能正確的識(shí)別出這些目標(biāo)的類別。可以看出,本文方法的通用性更強(qiáng),對(duì)于不同的場(chǎng)景下的多種結(jié)構(gòu)、尺度差異較大的目標(biāo)依然能取得優(yōu)秀的檢測(cè)效果。
圖6 檢測(cè)結(jié)果對(duì)比圖
針對(duì)當(dāng)前遙感影像背景復(fù)雜、小目標(biāo)等情況導(dǎo)致的檢測(cè)效果不佳的問題,提出了一種基于FCOS改進(jìn)的目標(biāo)檢測(cè)模型PARF-FCOS。通過構(gòu)造位置注意力模塊,差異化的調(diào)整特征圖各像元的通道權(quán)值,突出目標(biāo)特征,抑制背景特征;使用RFB處理淺層特征圖以增大感受野,獲取目標(biāo)上下文信息,提升小尺度目標(biāo)的檢測(cè)精度;訓(xùn)練時(shí)采用DIoU loss作為邊框回歸損失函數(shù),使邊框回歸過程更加平穩(wěn)和準(zhǔn)確。通過DIOR數(shù)據(jù)集上的實(shí)驗(yàn)分析表明,本文算法有效的提高了目標(biāo)的檢測(cè)精度,在多類目標(biāo)上取得了較高的檢測(cè)精度,算法對(duì)于小目標(biāo)檢測(cè)精度也有明顯的提升,驗(yàn)證了本文算法的有效性和魯棒性。本文提出的網(wǎng)絡(luò)模型雖然提高了檢測(cè)精度,但PA模塊和RFB給網(wǎng)絡(luò)增加了時(shí)間代價(jià)。今后,將從網(wǎng)絡(luò)推理速度出發(fā),嘗試?yán)镁矸e通道裁剪、網(wǎng)絡(luò)剪枝等輕量化技術(shù)進(jìn)一步優(yōu)化模型。