国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進的YOLO v3的遙感圖像目標(biāo)檢測

2022-06-14 07:56曲振方朱福珍
關(guān)鍵詞:特征提取輔助圖像

曲振方, 朱福珍

(黑龍江大學(xué) 電子工程學(xué)院, 哈爾濱 150080)

0 引 言

目標(biāo)檢測是遙感和計算機視覺領(lǐng)域急需解決的問題,通常將其定義為輸入圖像中的位置識別目標(biāo)對象以及對象類別識別。如今,目標(biāo)檢測技術(shù)已廣泛應(yīng)用于環(huán)境監(jiān)管、災(zāi)難評估、軍事調(diào)查和城市規(guī)劃等實際應(yīng)用中[1-2]。無論是針對人造物體(如車輛、建筑物、道路和橋梁等),還是自然物體(如湖泊、海岸和森林等),目標(biāo)檢測算法都得到了廣泛的研究,已經(jīng)出現(xiàn)了大量算法來檢測它們。現(xiàn)有的遙感影像目標(biāo)檢測算法大致可分為四類:(1)基于模板匹配的方法;(2)基于知識的目標(biāo)檢測方法;(3)基于目標(biāo)分析的目標(biāo)檢測算法;(4)基于機器學(xué)習(xí)的方法[1]。在上述方法中,基于機器學(xué)習(xí)的方法由于其強大的魯棒性而受到了許多學(xué)者的青睞,取得了突破性的發(fā)展[3-6]。

由于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks, CNN)的出現(xiàn),基于機器學(xué)習(xí)的目標(biāo)檢測算法得到了進一步的發(fā)展,引起了計算機視覺領(lǐng)域的廣泛研究,尤其是在目標(biāo)檢測方向上。CNN模型具有強大的特征提取能力和優(yōu)越的性能,因此涌現(xiàn)了大量基于CNN的目標(biāo)檢測算法,并將這些算法應(yīng)用于光學(xué)和遙感圖像的目標(biāo)檢測。隨著基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法的發(fā)展,目標(biāo)檢測算法大致可分為兩類:(1)一種方法是兩階段目標(biāo)檢測算法。該樣本首先生成一個候選框,然后由卷積神經(jīng)網(wǎng)絡(luò)進行處理。 該方法的優(yōu)點是檢測精度高,可以準(zhǔn)確定位物體,具有代表性的算法有Fast R-CNN[7]和Faster R-CNN[8];(2)另一種方法稱為單階段檢測方法,即將目標(biāo)邊界位置的問題直接轉(zhuǎn)換為回歸問題,然后通過卷積神經(jīng)網(wǎng)絡(luò)進行處理。該方法具有較快的運算速度,代表有SSD[9]、YOLO[10]、YOLO 9000[11]和YOLO v3[12]等算法。在遙感圖像研究領(lǐng)域,國內(nèi)外學(xué)者也已經(jīng)開始在深度學(xué)習(xí)的基礎(chǔ)上進行研究。盡管基于深度學(xué)習(xí)的對象檢測方法取得了突破,但這些方法仍存在一個亟待解決的問題:對于大規(guī)模的遙感圖像,某些目標(biāo)僅占據(jù)了幾個像素。這些相對較小的目標(biāo)容易在訓(xùn)練過程中丟失,可能會錯過一些關(guān)鍵目標(biāo)信息。 因此,對于遙感圖像目標(biāo)檢測,需要一種對小目標(biāo)具有高檢測精度和快速檢測的方法。小目標(biāo)檢測是計算機視覺領(lǐng)域的熱門話題,已應(yīng)用于場景分類[13]和目標(biāo)檢測[14-15]等方向。現(xiàn)有的小目標(biāo)物體方法被設(shè)計用于使用單尺度檢測網(wǎng)絡(luò)對光學(xué)圖像中的常見物體進行檢測(如汽車、自行車和建筑物)。這些共同物體的背景相對簡單,而在遙感圖像中,要檢測的目標(biāo)通常是在更復(fù)雜的場景中,這使得檢測小目標(biāo)更加困難。

當(dāng)在遙感圖像中進行目標(biāo)檢測時,遙感圖像的拍攝范圍較大,其范圍10~30 km,面對如此大的拍攝范圍,一些相對較小的物體,如汽車、輪船和飛機等,僅占據(jù)圖像中的幾個像素,導(dǎo)致在檢測遙感圖像時出現(xiàn)漏檢和誤檢的概率很高。在保證準(zhǔn)確性的基礎(chǔ)上,還需要保證遙感圖像的實時檢測。但是,用于遙感圖像檢測的YOLO網(wǎng)絡(luò)的性能并不理想。因此,遙感圖像目標(biāo)檢測是一個非常具有挑戰(zhàn)性的課題。

針對上述問題,提出了一種基于改進的YOLO v3算法的輔助網(wǎng)絡(luò)來檢測遙感圖像。首次將帶有輔助網(wǎng)絡(luò)的YOLO v3模型應(yīng)用到遙感圖像目標(biāo)檢測。使用的方法包括兩個主要的組成部分:輔助網(wǎng)絡(luò)和連接輔助網(wǎng)絡(luò)的SE注意力機制模塊,這兩個模塊的作用旨在增加網(wǎng)絡(luò)的特征提取能力,使得YOLO v3模型能夠檢測出更多的目標(biāo)。整個實驗在DOTA數(shù)據(jù)集中驗證,并充分證明了改進之后的網(wǎng)絡(luò)在性能上有所提高。

1 方 法

遙感圖像的目標(biāo)檢測需要確保其檢測的實時性和準(zhǔn)確性,但是兩階段基線的檢測速度相對較慢,因此選擇了在檢測性能和速度上適用的YOLO v3算法。遙感圖像中的許多目標(biāo)信息僅占用幾個像素,但是YOLO v3 算法在提取特征時容易丟失一些相對較小的圖像信息,因此,本文的目的是提高YOLO v3算法在提取遙感圖像中相對較小目標(biāo)信息時的魯棒性。

1.1 輔助網(wǎng)絡(luò)

YOLO v3算法的特征提取網(wǎng)絡(luò)采用的是Darknet-53的網(wǎng)絡(luò),它深層的采樣采用的是殘差結(jié)構(gòu)的形式。殘差結(jié)構(gòu)的內(nèi)部相對來說比較簡潔,使得整個網(wǎng)絡(luò)更加容易被使用,但是特征提取的能力還沒有被優(yōu)化。殘差模塊的出現(xiàn)能夠使得網(wǎng)絡(luò)的深度變得更深。目前,網(wǎng)絡(luò)設(shè)計的方法通常依賴于更多的網(wǎng)絡(luò)層去提取目標(biāo)特征而且去豐富卷積層語義信息以提升檢測的準(zhǔn)確率。然而對于檢測小目標(biāo),在圖像有限的像素區(qū)域,小目標(biāo)尺寸小,在神經(jīng)網(wǎng)絡(luò)中進行多次下采樣操作之后,這些區(qū)域的特征將會減小,特征的表達能力也會隨之下降,會變得更加不容易被網(wǎng)絡(luò)所學(xué)習(xí)。針對這一問題,本文采用加入輔助網(wǎng)絡(luò)的方法改進特征提取網(wǎng)絡(luò),改進主干網(wǎng)絡(luò)的主要方式是整個網(wǎng)絡(luò)通過“拷貝”的殘差模塊,通過復(fù)制的方式微調(diào)(Fine-tune)殘差模塊的結(jié)構(gòu)。優(yōu)化網(wǎng)絡(luò)的結(jié)構(gòu)如圖1所示。

圖1 加入輔助網(wǎng)絡(luò)的特征提取網(wǎng)絡(luò)

與原始的網(wǎng)絡(luò)結(jié)構(gòu)相比,本文采用了增加一個特征提取輔助網(wǎng)絡(luò),具有比主干網(wǎng)絡(luò)更小尺寸的網(wǎng)絡(luò)和在主干網(wǎng)絡(luò)旁邊支路上的多個殘差塊組成。輔助網(wǎng)絡(luò)的殘差模塊是相較于YOLO殘差模塊的提升。原始的殘差模塊使用3×3的卷積核去執(zhí)行特征提取的操作,盡管輔助網(wǎng)絡(luò)中的殘差模塊使用的是兩個連續(xù)的3×3的卷積核去獲得一個5×5的感受野,之后提取的特征將會在主干網(wǎng)絡(luò)中進行合并。在輔助網(wǎng)絡(luò)中所使用的感受野是5×5。使用一個大的感受野,如5×5的感受野在特征映射上表現(xiàn)全局特征提取,可以獲得整個區(qū)域的目標(biāo)特征。輔助網(wǎng)路傳送獲取的局部特征到主干網(wǎng)絡(luò),由主干網(wǎng)絡(luò)結(jié)合目標(biāo)局部信息所使用的3×3的感受野可以使得經(jīng)由輔助網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)特征更加準(zhǔn)確。輔助網(wǎng)絡(luò)使整個網(wǎng)絡(luò)結(jié)構(gòu)在一定程度上更緊密地與高級和低級語義特征相關(guān),這樣可以顯著提高網(wǎng)絡(luò)的檢測性能。這種增加輔助網(wǎng)絡(luò)改進特征提取的方法將會產(chǎn)生更多計算量,從而導(dǎo)致運行速度變慢。在改進特征提取網(wǎng)絡(luò)的基礎(chǔ)上,為了兼顧運行速度,僅增加輔助網(wǎng)絡(luò)到Y(jié)OLO v3算法三個相關(guān)尺度檢測的特征提取層。

1.2 SE注意力機制的應(yīng)用

由于遙感圖像中背景占據(jù)一張圖片中的很大比例,而且往往需要檢測的目標(biāo)很小,為了防止數(shù)據(jù)冗余,讓網(wǎng)絡(luò)學(xué)習(xí)到特定目標(biāo)的特征,故本文引入注意力機制。引用注意力機制連接主干網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)的方法分為兩步:第一步是輔助網(wǎng)絡(luò)的輸出模塊最開始是通過1×1的卷積核觸發(fā)的,然后傳送到主干網(wǎng)絡(luò);第二步是在兩個網(wǎng)絡(luò)之間加入注意力機制。當(dāng)網(wǎng)絡(luò)到達特定的深度,語義信息可以變得更強烈,輔助網(wǎng)絡(luò)可以集中于處理和傳送有效的特征,而且信道還可以抑制無效的特征。在兩個網(wǎng)絡(luò)之間所使用的注意力機制應(yīng)用的是SE模塊,這個模塊非常容易被部署。SE模塊注意力機制如圖2所示。結(jié)構(gòu)中增加了SE模塊的目的是為了校準(zhǔn)輔助模塊的輸出。流程圖可以簡單地分為壓縮和激勵兩部分,首先特征映射被壓縮,然后兩個維度的特征信道被平均池化成一維特征映射。此時特征映射的尺寸被轉(zhuǎn)化成1×1×C。

圖2 SE注意力機制

通過池化把二維特征映射轉(zhuǎn)化成一維特征映射的目的是更好地展示這一層每一個信道的特征值的分布。特征映射壓縮完成之后,一維的特征將會被激勵,計算公式如下:

Sc=Fex(Z,W)=σ(g(Z,W))=σ(W2σ(W1Z))

(1)

Sc是連接模型的關(guān)鍵,常被用來表明輔助網(wǎng)絡(luò)輸出信道的權(quán)重。Sc是經(jīng)由S函數(shù)激活,取值范圍0~1,表明每一個信道的重要程度。用Sc和Uc的結(jié)果去獲得最后的重定向特征圖,計算公式為:

Xc=FScale(Uc,Sc)=Sc·Uc

(2)

通過多個不同信道的不同權(quán)重,集中注意力于可以增加對關(guān)鍵通道域的關(guān)注。輔助殘差模塊通過SE模塊重定向,然后進入骨干網(wǎng)絡(luò)以完成特征融合。

2 評價指標(biāo)

本文測試所依據(jù)的評價指標(biāo)主要包括準(zhǔn)確率、回召率、mAP(mean Average precision)、AMC(Average minimum confidence)和 Loss(Missed detection rate)。在這些評價指標(biāo)中,平均最小置信度常常被用于評估一個特定的多類別目標(biāo)算法的分類性能,誤檢率常常被用于測試與檢測目標(biāo)框架有關(guān)的算法的性能。評價指標(biāo)的公式為:

(3)

(4)

式中:TP代表正樣本被正確的分類;FP代表正樣本被錯誤分類;FN代表負(fù)樣本被錯誤的分類。

(5)

(6)

式中:Nc代表目標(biāo)的類別;N代表圖片的數(shù)量。

(7)

式中MC代表在一張圖片里一個確定的目標(biāo)被正確檢測的最低置信度。

(8)

式中:NB代表在圖片里所有目標(biāo)的數(shù)量;NM代表未被檢測到的目標(biāo)數(shù)量。

3 實驗數(shù)據(jù)結(jié)果分析

所有實驗均在計算機上實現(xiàn),該計算機采用2.40GHz@IntelXeon? CPU E5-2640 v4,兩塊NVIDIA GeForce RTX 2080 Ti和32 GB內(nèi)存。本實驗中使用的DOTA數(shù)據(jù)集包含2 806個遙感圖像,并包含15個類別中的188和282個實例。標(biāo)記方法是由4個點確定的任何形狀和方向的四邊形(不同于傳統(tǒng)平行邊界框)。 共有15個圖像類別,其中包括14個主要類別。數(shù)據(jù)集分為1/6驗證集、1/3測試集和1/2訓(xùn)練集。300個樣本被用于測試,并且同原始的YOLO v3算法、帶有輔助網(wǎng)絡(luò)的YOLO v3算法在DOTA數(shù)據(jù)集進行橫向比較。原始的YOLO v3算法及本文所改進的YOLO v3算法比較結(jié)果如表1所示。通過比較表1得到的數(shù)據(jù)可知,所使用的YOLO v3優(yōu)化算法比起原始的YOLO v3算法在準(zhǔn)確率上和回召率上都有所提升。

表1 優(yōu)化的YOLO v3和原始的YOLO v3模型 / %

從表2可以看出,與傳統(tǒng)的YOLO v3算法相比,所提出的方法在總精確度上有著更好的效果(90.55%)。相比傳統(tǒng)的YOLO v3算法提高了8.68%。從單類別看,本方法在飛機、船、集裝箱、橋梁、汽車和直升機等幾類小目標(biāo)檢測中表現(xiàn)更好,對于網(wǎng)球場、棒球場等幾類相對較大目標(biāo),傳統(tǒng)YOLO v3算法表現(xiàn)更好,但相差不大。

表2 DOTA數(shù)據(jù)集上各類別目標(biāo)檢測精度 / %

BridgeLarge-VehicleSmall-VehicleHelicopterRoundaboutSoccer ball filedBasketball courtmAPYOLO v370.2479.1768.2378.6769.8990.5492.2981.87OUR-YOLO v390.3689.2585.4189.4782.4991.8395.1290.55

將改進的網(wǎng)絡(luò)和一些典型的One-stage和Two-stage網(wǎng)絡(luò)進行比較,使用DOTA數(shù)據(jù)集進行測試,來比較它們的準(zhǔn)確率和檢測時間,結(jié)果如表3所示。

表3 和常見網(wǎng)絡(luò)之間的速度和準(zhǔn)確率的比較 / %

PFP-Net和SINPER-Net網(wǎng)絡(luò)都是近年來表現(xiàn)較好的網(wǎng)絡(luò),PFP-Net屬于One-stage的網(wǎng)絡(luò)。從結(jié)果上來看,改進的YOLO算法比PFP-Net有著更高的準(zhǔn)確率和時間,其速度是近乎相同的。盡管SINPER-Net是一個Two-stage的網(wǎng)絡(luò),改進之后的YOLO v3算法準(zhǔn)確率只比其低了0.78%,但是檢測速度更快了,表明改進之后的YOLO v3算法在檢測準(zhǔn)確率和性能上獲得了很好的提升。

4 實驗效果對比分析

在DOTA數(shù)據(jù)集上進行了大量實驗,針對原始YOLO v3算法和改進后的YOLO v3算法進行效果對比。選取圖片如圖3~圖5所示,其中圖3(a)、4(a)和5(a)所示為原始YOLO v3算法的檢測結(jié)果,圖3(b)、4(b)和5(b)所示為本文算法的檢測結(jié)果。

(a) 原始YOLO v3算法檢測結(jié)果 (b) 改進的YOLO v3算法檢測結(jié)果

(a) 原始YOLO v3算法檢測結(jié)果 (b) 改進的YOLO v3算法檢測結(jié)果

(a) 原始YOLO v3算法檢測結(jié)果 (b) 改進YOLO v3算法檢測結(jié)果

對圖3~圖5的檢測結(jié)果進行對比分析,可以看出,原始的YOLO v3算法對目標(biāo)漏檢情況嚴(yán)重,但本文所使用的方法可以很好地檢測出原始YOLO v3算法所不能檢測出的目標(biāo)。在復(fù)雜的場景下,改進的YOLO v3算法仍然可以準(zhǔn)確檢測出目標(biāo)。從以上數(shù)據(jù)分析及效果圖可以看出,改進的YOLO v3算法比原始的YOLO v3算法準(zhǔn)確率更高,預(yù)測的Bounding boxes位置比原始的YOLO v3算法更準(zhǔn)確,證明使用輔助的特征提取網(wǎng)絡(luò)的方法可以幫助學(xué)習(xí)和定位特征,使得網(wǎng)絡(luò)的魯棒性更強。

5 結(jié) 論

介紹了基于改進的YOLO v3算法的遙感圖像目標(biāo)檢測,針對原始YOLO v3算法在遙感圖像上效果不好的問題進行了改進。基于YOLO v3的模型,使用了雙重的特征提取網(wǎng)絡(luò),在主干網(wǎng)絡(luò)配置了不同感受野的特征提取輔助網(wǎng)絡(luò),采用注意力機制用于主干網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)之間的信息融合。它集中注意力于有效的特征信道,抑制無效的特征信道,提升網(wǎng)絡(luò)處理的有效性。在DOTA數(shù)據(jù)集上,充分驗證了本方法,相較于原始的YOLO v3 mAP增加了8.68%,而且相較于一些比較出名的網(wǎng)絡(luò)結(jié)構(gòu),有著速度與準(zhǔn)確率上的雙重優(yōu)勢。

猜你喜歡
特征提取輔助圖像
老年人行動輔助車
同步定位與建圖特征提取和匹配算法研究
A、B兩點漂流記
基于MED—MOMEDA的風(fēng)電齒輪箱復(fù)合故障特征提取研究
例談何時構(gòu)造輔助圓解題
基于曲率局部二值模式的深度圖像手勢特征提取
名人語錄的極簡圖像表達
一次函數(shù)圖像與性質(zhì)的重難點講析
趣味數(shù)獨等4則
临朐县| 阳信县| 张家川| 汝州市| 义乌市| 界首市| 黎城县| 聂拉木县| 临澧县| 静乐县| 山阳县| 呼伦贝尔市| 凤冈县| 台北市| 建湖县| 望城县| 永仁县| 定边县| 清镇市| 忻城县| 福泉市| 北碚区| 临桂县| 武冈市| 松溪县| 山西省| 南和县| 望谟县| 祁门县| 平塘县| 瑞安市| 涟源市| 九台市| 祁阳县| 中超| 杨浦区| 拉萨市| 贺兰县| 武山县| 安西县| 湾仔区|