国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Yolo v3算法的遙感建筑物檢測研究

2020-09-15 04:48熊風(fēng)光況立群徐清宇
關(guān)鍵詞:先驗(yàn)網(wǎng)絡(luò)結(jié)構(gòu)尺度

董 彪,熊風(fēng)光,韓 燮,況立群,徐清宇

1.中北大學(xué) 大數(shù)據(jù)學(xué)院,太原 030051

2.北方自動(dòng)控制技術(shù)研究所 仿真裝備研發(fā)部,太原 030051

1 引言

隨著遙感技術(shù)的發(fā)展,遙感圖像幅員更加遼闊,包含的信息更加復(fù)雜,因此其已被廣泛應(yīng)用于圖像識別、語義識別、視頻分析、文本分析和大數(shù)據(jù)分析等領(lǐng)域[1]。遙感圖像中對固定地物與移動(dòng)地物的檢測一直是研究熱點(diǎn),其中固定地表建筑物是人類主要活動(dòng)場所,因此對該類目標(biāo)實(shí)現(xiàn)檢測顯得尤為重要??紤]到實(shí)際工程應(yīng)用中實(shí)時(shí)性是一個(gè)極為重要的問題,且檢測目標(biāo)(建筑物)小,對建筑物檢測也造成了極大的困難。故而,如何實(shí)現(xiàn)對遙感圖像中該類建筑物的檢測是目標(biāo)檢測領(lǐng)域的一個(gè)研究難點(diǎn)[2]。

相比傳統(tǒng)的根據(jù)建筑物顏色、形狀、紋理等提取簡單特征的目標(biāo)檢測算法,基于深度學(xué)習(xí)的目標(biāo)檢測利用深度神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征學(xué)習(xí)能力來解決復(fù)雜的遙感圖像檢測問題,更能滿足今天遙感圖像中目標(biāo)檢測的要求[3]。本文的研究重點(diǎn)為固定地表中的建筑物檢測,以基于深度學(xué)習(xí)的目標(biāo)檢測算法Yolo v3為研究基礎(chǔ),并以修改特征圖分辨率、調(diào)整先驗(yàn)框維度為改進(jìn)方向,加強(qiáng)對小型建筑物的檢測,生成更適合遙感建筑物檢測的網(wǎng)絡(luò)模型。

2 相關(guān)工作

從遙感圖像中檢測建筑物有傳統(tǒng)算法和基于深度學(xué)習(xí)的算法兩大類。傳統(tǒng)目標(biāo)檢測算法是一種基于人工設(shè)計(jì)特征的分類方法,利用了建筑物某一方面的特征,如顏色、形狀等,雖然具有一定的檢測效果,但是在檢測精度和檢測速度上具有較大的局限性。如文獻(xiàn)[4]提出一種陰影驗(yàn)證的建筑物檢測方法,該方法通過建筑物的陰影、形狀以及顏色特征結(jié)合起來檢測建筑物,對特征簡單的建筑物檢測效果良好,但對于復(fù)雜特征的建筑物檢測,該方法無法滿足工程應(yīng)用中對檢測精度及實(shí)時(shí)性的要求。與之相比,基于深度學(xué)習(xí)的檢測算法以其適應(yīng)能力強(qiáng)、檢測效率高而得到了廣泛應(yīng)用,該類檢測算法以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),具有強(qiáng)大的特征表示能力,在背景模糊、地理環(huán)境復(fù)雜的情況下,仍然能夠?qū)W習(xí)到有用的特征,大幅提高了物體檢測精度,適用于當(dāng)今遙感圖像復(fù)雜多變的場景,具有非常好的泛化能力和魯棒性[5]。如文獻(xiàn)[6]提出一種端到端的密集反卷積神經(jīng)網(wǎng)絡(luò),將圖像中的抽象特征與細(xì)節(jié)特征結(jié)合,能夠捕捉到目標(biāo)建筑物的細(xì)微復(fù)雜特征;文獻(xiàn)[7]中使用金字塔技術(shù)構(gòu)建多級訓(xùn)練的樣本,提出候選建筑區(qū)域檢測建筑物,在檢測精度及實(shí)時(shí)性方面有顯著提升。

目前基于深度學(xué)習(xí)的檢測算法可以分為兩類:基于區(qū)域的目標(biāo)檢測算法和基于端到端的目標(biāo)檢測算法。前者先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本分類,這類算法在檢測精度和定位精度上占優(yōu),代表算法有:Faster RCNN[8-9]和Fast RCNN等;后者不生成候選框,直接將目標(biāo)邊框定位的問題轉(zhuǎn)化為回歸問題,這類算法在檢測速度上占優(yōu),代表算法有:Yolo[10-11]系列和 SSD[12]等。

考慮到目前遙感技術(shù)的發(fā)展,需要對上千平方公里圖像進(jìn)行處理,而且目標(biāo)小、背景復(fù)雜度高,因此檢測速度及泛用性是首先考慮的問題,所以本文將基于深度學(xué)習(xí)的Yolo v3檢測算法應(yīng)用于建筑物的檢測,并在檢測小型建筑物方面提出改進(jìn)。

3 改進(jìn)Yolo v3算法

3.1 Yolo v3原理

Yolo v3 是基于端到端的檢測算法,網(wǎng)絡(luò)結(jié)構(gòu)分為骨干網(wǎng)絡(luò)(Darknet-53)和檢測網(wǎng)絡(luò)。Darknet-53由52個(gè)卷積層和1個(gè)全連接層組成,構(gòu)成了一個(gè)53層的卷積神經(jīng)網(wǎng)絡(luò)(CNN),并輸出13×13、26×26和52×52三種尺度的特征,送入檢測網(wǎng)絡(luò)。檢測網(wǎng)絡(luò)對三種尺度的特征回歸,預(yù)測出多個(gè)預(yù)測框,并使用非極大抑制(NMS)算法刪除置信得分較低的預(yù)測框,保留置信得分較高的預(yù)測框?yàn)槟繕?biāo)檢測框,從而得到目標(biāo)的類別和位置,檢測流程如圖1。

圖1 Yolo v3檢測流程

(1)邊界框預(yù)測:檢測網(wǎng)絡(luò)對13×13、26×26和52×52三種尺度的特征回歸,預(yù)測出多個(gè)預(yù)測框,在檢測的過程中,每個(gè)網(wǎng)格會(huì)產(chǎn)生多個(gè)邊界框,每個(gè)邊界框都要預(yù)測邊界框位置信息(x,y,w,h)和置信度(confidence)。置信度是邊界框所含目標(biāo)的可能性Pr(object)與邊界框準(zhǔn)確度IOU的乘積,計(jì)算公式如式(1)所示:

若網(wǎng)格中包含某個(gè)目標(biāo)則Pr(object)=1 ,否則表示真實(shí)標(biāo)注框與預(yù)測框的交并比,用來衡量預(yù)測邊界框的準(zhǔn)確性,當(dāng)IOU=1 時(shí),說明真實(shí)標(biāo)注框與預(yù)測框重合。

(2)分類:對包含目標(biāo)的網(wǎng)格預(yù)測多個(gè)類別概率,用Pr(classi|object)表示。為了得到每個(gè)邊界框的分類信息,將邊界框所屬網(wǎng)格的類別概率與邊界框的置信度相乘得到置信度評分,如公式(2)所示,其代表了邊界框中目標(biāo)屬于某個(gè)類的概率。

在模型訓(xùn)練中,將邊界框每個(gè)類別的置信度評分按高低排序,將置信度得分小于設(shè)定閾值的邊界框的置信度設(shè)為0,然后再用非極大值抑制算法(NMS)去掉重復(fù)率較大的邊界框,最后每一個(gè)邊界框只保留置信度評分大于0且最高的類,從而檢測出各類目標(biāo)。

3.2 改進(jìn)Yolo v3

Yolo v3算法的網(wǎng)絡(luò)權(quán)重是基于COCO數(shù)據(jù)集訓(xùn)練測試所得,COCO數(shù)據(jù)集包括80種類別目標(biāo),且該數(shù)據(jù)集目標(biāo)與本文檢測的遙感建筑物尺度差異較大,故而原Yolo v3 算法不適用本文應(yīng)用場景,尤其是對小型建筑物的檢測表現(xiàn)不好。

目前隨著Yolo v3 的廣泛應(yīng)用,已有相關(guān)文獻(xiàn)針對具體場景做出了相應(yīng)改進(jìn)。文獻(xiàn)[13]提出一種基于Yolo v2 的船舶檢測算法Yolt,該算法網(wǎng)絡(luò)結(jié)構(gòu)與Yolo v2 相比,最大的修改是最后輸出特征尺寸為26×26,加強(qiáng)了對小目標(biāo)的檢測,結(jié)果表明在稀疏的小目標(biāo)場景下檢測效果良好,但在目標(biāo)密集的場景下表現(xiàn)不好[13];文獻(xiàn)[14]提出了一種基于Yolo v3改進(jìn)的電氣元件檢測算法,通過對PASCAL VOC 和KITTI 數(shù)據(jù)集進(jìn)行k-means 聚類分析,調(diào)整先驗(yàn)框維度,并在原來三種尺度的特征圖上增加104×104 的特征圖,達(dá)到加強(qiáng)小目標(biāo)檢測的能力,結(jié)果表明在文獻(xiàn)提供的電氣元件的數(shù)據(jù)集中表現(xiàn)良好,但該應(yīng)用場景不具有泛用性[14]。

故本文在以下兩方面進(jìn)行改進(jìn):一是修改特征圖分辨率,擴(kuò)大感受野,減少語義特征丟失;二是使用k-means算法對本文的遙感建筑物數(shù)據(jù)集進(jìn)行聚類分析,得到對應(yīng)的先驗(yàn)框維度[15]。

3.2.1 修改特征圖分辨率

Yolo v3 為加強(qiáng)對小目標(biāo)的檢測,借鑒了特征金字塔網(wǎng)絡(luò)FPN(Feature Pyramid Network),將高層特征與淺層特征信息融合,采用多個(gè)尺度融合的方式,在多個(gè)尺度的特征圖上進(jìn)行位置和類別預(yù)測,但Yolo v3網(wǎng)絡(luò)結(jié)構(gòu)采取的三個(gè)尺度的特征融合方法對遙感圖像中檢測較小的目標(biāo)有不利的影響,13×13的特征圖語義丟失嚴(yán)重,易造成小目標(biāo)丟失。考慮到特征的分辨率將直接影響小目標(biāo)的檢測和整體性能指標(biāo),所以在Darknet-53基礎(chǔ)上對原特征圖三個(gè)尺度的分辨率13×13、26×26 和52×52修改為兩個(gè)較大尺度的分辨率26×26和52×52。

修改后的網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示,將原網(wǎng)絡(luò)結(jié)構(gòu)26×26的特征圖分辨率作為第一尺度;將 L61(61層)結(jié)果進(jìn)行五次卷積操作(Convolutional Set),首先為了提升計(jì)算效率進(jìn)行1×1 卷積操作降維,然后上采樣(Up Sample),再與 L36(36層)融合,最后融合之后采用3×3的卷積核對融合結(jié)果進(jìn)行卷積,目的是消除上采樣的混疊效應(yīng),如此就得到了一個(gè)新的特征圖52×52,作為第二尺度特征。

圖2 修改后的網(wǎng)絡(luò)結(jié)構(gòu)

經(jīng)修改后,本文對Yolo v3 改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)能夠在深層網(wǎng)絡(luò)中保持較高分辨率和較大的特征圖的感受野,以增強(qiáng)對小目標(biāo)的檢測能力。

3.2.2 k-means聚類分析調(diào)整先驗(yàn)框維度

Yolo v3 借鑒先驗(yàn)框來預(yù)測邊界框坐標(biāo),使用kmeans 算法預(yù)測得到9 個(gè)先驗(yàn)框,并將其均分到3 個(gè)尺度特征圖,以此來獲得更多的目標(biāo)邊緣信息。Yolo v3中計(jì)算得到的9 組先驗(yàn)框維度分別為(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326),但是在本文應(yīng)用場景中,Yolo v3算法中計(jì)算得到的先驗(yàn)框維度不適合建筑物的檢測。因此,在遙感建筑物檢測場景下,使用k-means 算法對自制的建筑物數(shù)據(jù)集進(jìn)行聚類分析,得到先驗(yàn)框維度,從小到大分別為:(49,47),(92,50),(52,97),(175,51),(142,95),(74,200),分辨率較小的26×26 特征圖有較大的感受野,故采用較大的先驗(yàn)框(175,51),(142,95),(74,200),分辨率較大的52×52的特征圖有較小的感受野,故采用較小的先驗(yàn)框(49,47),(92,50),(52,97),如表1所示。

表1 數(shù)據(jù)集的先驗(yàn)框

4 實(shí)驗(yàn)結(jié)果及分析

4.1 數(shù)據(jù)集制作

本文使用的數(shù)據(jù)集來自我國北方某城市的衛(wèi)星圖像,使用谷歌地圖下載,圖像尺寸為25 km×25 km,對圖像裁剪及篩選,使用標(biāo)注工具labelImg 進(jìn)行標(biāo)注,制作本文的數(shù)據(jù)集。

labellmg 是專門為Yolo 系列算法的網(wǎng)絡(luò)訓(xùn)練準(zhǔn)備數(shù)據(jù)的工具,利用該標(biāo)注工具,手動(dòng)完成矩形框標(biāo)注,最后得到xml文件,操作界面如圖3所示。一共得到1 000張訓(xùn)練集和200張測試集。

圖3 標(biāo)注界面

4.2 實(shí)驗(yàn)過程及平臺

本文采用計(jì)算機(jī)為筆記本電腦,配置為Intel i7-9750H,32 GB內(nèi)存,64位Windows 10操作系統(tǒng);開發(fā)環(huán)境為tensorflow1.14,opencv4.1,python3.7。

原Yolo v3 及本文改進(jìn)算法都是在keras 環(huán)境下運(yùn)行,以1 000張遙感圖像為訓(xùn)練集,200張做測試集,初始階段學(xué)習(xí)率為0.001,衰減系數(shù)為0.000 5,為使損失函數(shù)進(jìn)一步收斂,在訓(xùn)練迭代次數(shù)為 25 000次時(shí),學(xué)習(xí)率降低為0.000 1。最終,loss 值穩(wěn)定在0.5 左右,迭代至30 000次停止,如圖4。

圖4 損失值曲線

4.3 實(shí)驗(yàn)結(jié)果與分析

4.3.1 本文網(wǎng)絡(luò)模型檢測結(jié)果

本文網(wǎng)絡(luò)模型基于Yolo v3 算法,通過修改特征圖分辨率及使用k-means 算法對本文遙感建筑物數(shù)據(jù)集進(jìn)行聚類分析,加強(qiáng)對小型建筑物的檢測。經(jīng)過本文網(wǎng)絡(luò)模型檢測,選取尺寸相差較大、排列密集的建筑物檢測場景做樣例分析,結(jié)果如圖5。

圖5 網(wǎng)絡(luò)模型檢測結(jié)果

從檢測結(jié)果可以看出,本文對Yolo v3進(jìn)行改進(jìn),通過選擇合適的特征圖分辨率及調(diào)整先驗(yàn)框維度提高了對小型建筑物的檢測能力,對場景中排列密集建筑物(樣例1)、尺度差距大(樣例2)、背景復(fù)雜度高(樣例3)及在有道路下的建筑物(樣例4)做到了很好的識別效果,尤其對于小型建筑物的檢測效果良好。

4.3.2 評價(jià)指標(biāo)

本文采用平均檢測精度(mAp)、召回率(recall)、平均檢測時(shí)間(time)作為檢測評價(jià)指標(biāo)。其中精度和召回率分別定義為:

以遙感建筑物為例,TP、FP分別表示檢測模型將建筑物檢測正確與錯(cuò)誤的數(shù)量,F(xiàn)N表示誤檢的數(shù)量。召回率(recall)表示能夠正確識別建筑物的概率;precision表示已識別為建筑物的檢測精度,對precision 取平均值,以平均檢測精度(mAp)作為評價(jià)指標(biāo);time 表示平均每張檢測時(shí)間。

4.3.3 本文網(wǎng)絡(luò)模型效率對比分析

本文針對遙感圖像中的小型建筑物展開研究,選取建筑物排列密集(a組)和相對尺寸差距大(b組)兩種場景做對比分析,經(jīng)過本文網(wǎng)絡(luò)模型(Article method)與原Yolo v3算法檢測結(jié)果對比如圖6所示。

圖6 檢測結(jié)果對比

對比實(shí)驗(yàn)結(jié)果可以看出,a 組的小型目標(biāo)建筑物排列密集,b組目標(biāo)建筑物尺度差距相對較大。原Yolo v3算法對小型建筑物(a1、b1)的檢測效果表現(xiàn)不好,在場景a1中右方排列密集的小型建筑物和在場景b1中下方的小型建筑物都出現(xiàn)了漏檢;本文網(wǎng)絡(luò)結(jié)構(gòu)(Article method)的檢測結(jié)果(a2、b2)很好地實(shí)現(xiàn)了小型目標(biāo)建筑物的檢測,在排列密集和相對尺度大的兩種場景中都能對小型建筑物做到了很好的檢測效果,且對于相同目標(biāo)的檢測,本文改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)相比原Yolo v3算法的檢測精度也有提高。

基于深度學(xué)習(xí)的目標(biāo)檢測算法分為基于區(qū)域的目標(biāo)檢測算法和基于端到端的目標(biāo)檢測算法。Yolo v3算法是一種基于端到端的檢測算法,為驗(yàn)證本文改進(jìn)網(wǎng)絡(luò)的優(yōu)越性,故與主流算法進(jìn)行對比分析。因此,本文設(shè)計(jì)實(shí)驗(yàn):以本文自制遙感建筑物數(shù)據(jù)集為實(shí)驗(yàn)數(shù)據(jù)集,200 張作為測試集,通過本文改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(Article method)與原 Yolo v3 算法、同樣基于端到端的 SSD 算法及基于區(qū)域的Faster RCNN 算法在平均檢測精度(mAp)、平均每張檢測時(shí)間(time)及召回率(recall)等方面做效率比較,效率分析如表2所示。

表2 效率分析

從實(shí)驗(yàn)結(jié)果可以看出,在平均檢測精度(mAp)方面,原Yolo v3 算法的平均精度為85.94%,SSD 算法的平均精度為80.49%,F(xiàn)aster RCNN 算法的平均精度為93.81%,本文改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(Article method)平均精度為 91.29%,比 Faster RCNN 算法略低,較原Yolo v3 算法和SSD 算法提高了5.35%和10.8%;而在檢測時(shí)間(time)方面,原Yolo v3算法的檢測時(shí)間為0.041 s,SSD算法的檢測時(shí)間為0.253 s,F(xiàn)aster RCNN算法的檢測時(shí)間為2.37 s,本文改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(Article method)的檢測時(shí)間為0.042 s,僅比原Yolo v3 算法的檢測時(shí)間多0.001 s,較SSD算法和Faster RCNN算法快了0.211 s和2.328 s,很好地滿足了實(shí)時(shí)性;在召回率(recall)方面,原Yolo v3 算法的召回率為93.27%,SSD 算法的召回率為90.84%,F(xiàn)aster RCNN 算法的召回率為97.33%,本文改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(Article method)的召回率為95.61%,比Faster RCNN 算法略低,較原 Yolo v3 算法及 SSD 算法提高了2.34%和4.77%。

故本文改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)(Article method)在保持了原算法速度優(yōu)勢的基礎(chǔ)上,提高了平均檢測精度和召回率,所以本文提出的基于Yolo v3的改進(jìn)網(wǎng)絡(luò)模型對遙感建筑物檢測效果更好。

5 結(jié)束語

本文針對遙感建筑物的檢測,對小型建筑物檢測難度大的問題進(jìn)行研究,提出了基于深度學(xué)習(xí)的Yolo v3改進(jìn)算法,以修改特征圖分辨率、調(diào)整先驗(yàn)框維度為方向得到一種適合遙感建筑物檢測的網(wǎng)絡(luò)模型,加強(qiáng)了對小型建筑物的檢測能力。實(shí)驗(yàn)結(jié)果表明,本文提出的方法在滿足了實(shí)時(shí)性的基礎(chǔ)上,有效解決了遙感圖像中固定地物建筑物檢測過程中存在的小型建筑物檢測難度大的問題。接下來將針對遙感圖像中移動(dòng)地物做研究。

猜你喜歡
先驗(yàn)網(wǎng)絡(luò)結(jié)構(gòu)尺度
財(cái)產(chǎn)的五大尺度和五重應(yīng)對
基于無噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
基于廣義混合圖的弱節(jié)點(diǎn)對等覆蓋網(wǎng)絡(luò)結(jié)構(gòu)
體系作戰(zhàn)信息流轉(zhuǎn)超網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化
宇宙的尺度
康德審美判斷的先驗(yàn)演繹與跨文化交流
基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對算法研究進(jìn)展
基于平滑先驗(yàn)法的被動(dòng)聲信號趨勢項(xiàng)消除
临朐县| 永宁县| 东城区| 定兴县| 马边| 康定县| 日照市| 怀宁县| 府谷县| 漳平市| 普格县| 新晃| 台前县| 民丰县| 宜兰市| 凉山| 沙雅县| 石景山区| 池州市| 乐安县| 徐州市| 长子县| 定西市| 中江县| 潢川县| 凉城县| 天柱县| 萍乡市| 阿图什市| 阳江市| 巴林右旗| 宁强县| 临颍县| 新河县| 驻马店市| 曲麻莱县| 吴川市| 云浮市| 原阳县| 蕲春县| 浮梁县|