国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

密集場景的雙通道耦合目標(biāo)檢測算法

2020-03-01 06:43:40劉潔瑜魏文曉
中國慣性技術(shù)學(xué)報 2020年5期
關(guān)鍵詞:密集邊框實例

劉潔瑜,魏文曉,趙 彤,沈 強(qiáng)

(1.火箭軍工程大學(xué),西安 710025;2.北部戰(zhàn)區(qū)聯(lián)合作戰(zhàn)指揮中心,沈陽 110000)

圖像制導(dǎo)是目前精確制導(dǎo)系統(tǒng)中常用的制導(dǎo)方式之一,通過安裝在制導(dǎo)武器導(dǎo)引頭的攝像機(jī)實施拍攝地面信息,對獲取的圖像進(jìn)行實時分析處理確定目標(biāo)的位置信息,因此目標(biāo)檢測算法既要有高實時性又要有高精確度[1]。在空對地這類特殊場景下,圖像中包含的背景信息變化多樣(光照,遮擋等),目標(biāo)尺度較小,分布密集的目標(biāo)較多,加大了檢測難度。

近些年,深度學(xué)習(xí)技術(shù)發(fā)展迅猛,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)能夠自動學(xué)習(xí)結(jié)構(gòu)化特征,在計算機(jī)視覺領(lǐng)域發(fā)展迅速。將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到檢測任務(wù),充分利用了卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力[2]。隨后目標(biāo)檢測領(lǐng)域的發(fā)展趨于兩大類檢測算法,一類是雙階段算法,檢測精度較高,但由于其分為兩個階段進(jìn)行分類預(yù)測,速度受限;另一類是單階段算法,其去除了生成候選區(qū)域的階段,直接回歸預(yù)測分類,檢測速度快,但相比于雙階段算法檢測精度有一定程度的降低。為此,眾多學(xué)者通過增強(qiáng)算法中CNN 的表征能力[3,4]或者平衡正負(fù)樣本[5,6]的方法提升單階段算法的檢測精度,使其可以與雙階段算法媲美。雖然基于CNN 的單階段目標(biāo)檢測算法取得了一定的成果,但是在密集目標(biāo)和小目標(biāo)的檢測上效果不佳。為了提升對小目標(biāo)的檢測精度,2016年Liu Wei 提出了SSD[7]算法,采用了一種多尺度預(yù)測的思想,在6 個不同特征層上同時預(yù)測候選邊界,以適應(yīng)圖像中不同尺度的目標(biāo)。2017年,Tsung-Yi Lin 提出了特征金字塔網(wǎng)絡(luò)(FPN)[8],用深層特征對淺層特征的輔助作用,有效地提升了Faster R-CNN[9]檢測小目標(biāo)的精度。之后,DSSD[3],F(xiàn)SSD[10],YoloV3[11],MSSD[6],RefineDet[12],MDSSD[13]等算法分別借鑒FPN 融合上下文信息的思想,建立了多尺度特征融合結(jié)構(gòu),有效地提升了小目標(biāo)的檢測。圖1所示為利用經(jīng)典的SSD 算法和YoloV3 算法對自制空對地數(shù)據(jù)集進(jìn)行密集小目標(biāo)(艦船目標(biāo))檢測的測試。

圖1 經(jīng)典算法的檢測結(jié)果Fig.1 Test results of the classical algorithm

從圖1(a)中可以看出,SSD 算法檢測失效,沒有檢測到一個正例。圖1(b)中,對小目標(biāo)具有很強(qiáng)魯棒性的YoloV3 算法雖然識別出部分正例,但是依舊存在大量漏檢問題。因此針對空對地場景中的密集小目標(biāo)較多的特點,本文以YoloV3 網(wǎng)絡(luò)為基礎(chǔ)算法提出一種密集場景聚焦的雙通道耦合目標(biāo)檢測算法,建立了密集場景檢測通道和實例檢測通道。模仿人眼的聚焦能力,針對空對地視角下密集分布的小目標(biāo)進(jìn)行變尺度檢測。自制空對地密集目標(biāo)數(shù)據(jù)集進(jìn)行驗證,實驗結(jié)果表明,本方法具有一定的先進(jìn)性,為密集小目標(biāo)的檢測提供了一種新思路。

1 算法設(shè)計

在基于CNN 的單階段目標(biāo)檢測算法中,輸入圖像的尺寸往往是固定的。一般采用線性插值的方法對輸入尺寸不同的圖片進(jìn)行重建,而對于輸入尺寸較大的圖像,這種方法極大地犧牲了圖像的質(zhì)量,很可能造成關(guān)鍵信息丟失的情況,尤其對象是密集小目標(biāo)。如果單純提升檢測算法的輸入尺寸,雖然可以解決信息丟失的問題,但是會造成算法的復(fù)雜度劇烈升高,對計算機(jī)內(nèi)存產(chǎn)生更大消耗。為此,本文模仿人眼變分辨率檢測的思想,單獨地對圖像中難檢測區(qū)域進(jìn)行變分辨率檢測。

在視覺搜索任務(wù)中,目標(biāo)通常隨機(jī)分布在場景中的任意位置。但是在真實場景中,目標(biāo)的位置往往是受到限制的,例如要尋找艦船目標(biāo)時,通常會在水面上搜索,而不是陸地上,這便是人眼典型的情景線索輔助式搜索。人眼在對特定目標(biāo)進(jìn)行搜索時,對視場中每個位置的關(guān)注度(分辨率)是不同的。對一些場景線索強(qiáng)度高的區(qū)域,眼球會相應(yīng)地進(jìn)行調(diào)整[14]。于是,這些區(qū)域的視圖相對來說更加清晰,分布在此區(qū)域中的目標(biāo)更容易被發(fā)現(xiàn)。在空對地這類目標(biāo)區(qū)域?qū)嵗植济芗?、區(qū)域之間分布稀疏的場景中,類似人眼這種異常區(qū)域聚焦檢測的方法將取得很大優(yōu)勢。

為了模仿人眼聚焦搜索的方法,本文設(shè)計了一種雙通道耦合的目標(biāo)檢測算法,其流程圖如圖2所示。通過YoloV3 算法檢測感興趣目標(biāo),同時也對密集場景區(qū)域進(jìn)行檢測。當(dāng)發(fā)現(xiàn)圖像中存在密集場景時,保留當(dāng)前目標(biāo)檢測結(jié)果,同時將密集區(qū)域的局部圖像再次作為輸入圖像進(jìn)行檢測,直到圖像中沒有檢測到密集區(qū)域。將基于YoloV3 算法得到的局部圖像的檢測結(jié)果和全局檢測結(jié)果進(jìn)行融合,得到最終的目標(biāo)選框??紤]到密集場景屬于情景因素,與目標(biāo)實例為不同屬性的特征,場景和目標(biāo)之間耦合關(guān)系也較復(fù)雜,極大地增加了檢測的難度,因此本文在網(wǎng)絡(luò)后端分為兩通道獨立地利用YoloV3 算法進(jìn)行檢測。其中一個通道檢測密集場景,另一個通道檢測目標(biāo)實例。

圖2 算法流程圖Fig.2 Algorithm flow chart

2 網(wǎng)絡(luò)結(jié)構(gòu)

YoloV3 算法是Yolo 系列第三代算法,兼顧了速度和精度,當(dāng)輸入圖像尺寸為416×416 時,在COCO 數(shù)據(jù)集上精確度達(dá)到了55.3%,而速度僅需22 ms。密集場景聚焦的雙通道耦合目標(biāo)檢測算法是在YoloV3 的網(wǎng)絡(luò)框架上進(jìn)行改進(jìn),將密集場景檢測網(wǎng)絡(luò)和目標(biāo)實例檢測網(wǎng)絡(luò)進(jìn)行一體化設(shè)計,在密集區(qū)域與目標(biāo)實例之間建立耦合關(guān)系提升檢測精度,算法的結(jié)構(gòu)如圖3所示。下面對網(wǎng)絡(luò)的各模塊進(jìn)行設(shè)計。

圖3 密集場景聚焦的雙通道耦合網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Two-channel coupling network structure focused on dense scenes

2.1 特征提取網(wǎng)絡(luò)

本算法采用DarkNet53[11]作為特征提取網(wǎng)絡(luò)。為了減少特征提取時池化層造成的信息丟失,DarkNet53 采用了全卷積的結(jié)構(gòu)進(jìn)行下采樣。其網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)如圖4所示。圖4中Conv 代表卷積層,每層的卷積后都加入了BN(Batch Normalization)層和Relu 激活函數(shù)。綠色邊框是DarkNet53 的下采樣層,特征圖每次縮小為原始的一半。黃色邊框為殘差結(jié)構(gòu),由若干1×1 和3×3 的卷積層堆疊,每組殘差塊的輸入與輸出之間增加了鏈接路徑(shortcut)使得模型在訓(xùn)練時可以動態(tài)地調(diào)節(jié)復(fù)雜度,避免出現(xiàn)梯度消失和梯度爆炸的情況。模型總共包含52個卷積層和一個全連接層(在圖中省略)。黑色邊框為第3、4、5 個殘差結(jié)構(gòu)的輸出特征圖。

2.2 特征金字塔融合結(jié)構(gòu)

算法在特征提取網(wǎng)絡(luò)的Conv1、Conv2 和Conv3 層分成兩個相同的通道進(jìn)行特征融合,融合結(jié)構(gòu)同YoloV3如圖5所示。圖中卷積層的參數(shù)同圖4,每層卷積之后同樣經(jīng)過BN 層和Relu 激活函數(shù)。相比較YoloV2 的直通層(passthrough layer),YoloV3 采用FPN 的思想,對深層特征進(jìn)行上采樣之后與淺層特征融合。不同于FPN相加的融合方式,YoloV3 采用的Cat 操作更好地保留了網(wǎng)絡(luò)各層的信息,而后通過多個1×1 和3×3 的卷積對各通道的信息進(jìn)行整合,對小目標(biāo)檢測明顯加強(qiáng)?;疑驗樽罱K的增強(qiáng)后的特征層,在密集區(qū)域檢測通道生成Conv_m1、Conv_m2 和Conv_m3 特征層,在實例檢測通道生成Conv_1、Conv_2 和Conv_3 特征層。

圖5 特征金字塔融合結(jié)構(gòu)和參數(shù)Fig.5 Characteristic pyramid fusion structure and parameters

2.3 通道耦合結(jié)構(gòu)

文獻(xiàn)[15]中提出的情景引導(dǎo)模型證明了局部特征對視覺搜索的輔助作用。在本網(wǎng)絡(luò)中,密集區(qū)域檢測通道獨立地計算圖像中目標(biāo)的分布特征,對目標(biāo)分布密集的區(qū)域構(gòu)建了一個凸顯地圖。凸顯地圖提取了區(qū)域目標(biāo)的綜合屬性,對目標(biāo)的定位分類有一定的積極作用,因此將Conv_m1、Conv_m2 和Conv_m3 特征層與Conv_1、Conv_2 和Conv_3 特征層之間建立耦合結(jié)構(gòu),如圖3所示。采用Sigmoid 函數(shù)對目標(biāo)實例通道的特征圖進(jìn)行選擇性增強(qiáng),密集區(qū)域凸顯地圖的強(qiáng)度決定信息的增強(qiáng)程度。在增強(qiáng)后的特征圖上進(jìn)行目標(biāo)實例的邊框的回歸。

2.4 錨 點

單階段算法首先將初始框(default boxes)按照標(biāo)注框(ground true boxes)的信息進(jìn)行編碼,將網(wǎng)絡(luò)生成的邊界框(bounding boxes)回歸到編碼后的初始框上,因此錨點上產(chǎn)生的初始框?qū)λ惴ǖ木扔袠O大的影響。分別對密集區(qū)域和目標(biāo)特征圖中每個錨點產(chǎn)生3 類初始框,每個通道共9 類邊框。傳統(tǒng)的YoloV3 算法利用K-Means 算法來確定每個邊框的尺寸,考慮到K-Means算法對初始值設(shè)置較敏感,并且當(dāng)數(shù)據(jù)集較大時,算法容易收斂到局部最優(yōu),因此本文在聚類前采用K-Means++[16]算法獲取初始值。密集區(qū)域的邊框尺寸直接按照K-Means++算法進(jìn)行聚類,而目標(biāo)邊框的樣本由兩部分組成,分別是密集區(qū)域的實例邊框和原始圖像中的實例邊框。由于在網(wǎng)絡(luò)輸入端對圖像進(jìn)行了線性插值的重建,對像素較大的圖像來說,某些目標(biāo)的尺寸會過小,網(wǎng)絡(luò)無法提取此類目標(biāo)的特征信息。這些干擾目標(biāo)的邊框樣本使聚類中心產(chǎn)生偏離,增加了邊框誤差,因此本文將重建后尺寸小于15×15 像素的邊框樣本濾除。最終在密集區(qū)域聚類結(jié)果為:(51,55)、(99,77)、(70,143)、(186,93)、(131,150)、(206,194)、(149,323)、(317,180)和(333,327),對目標(biāo)的聚類結(jié)果為:(5,3)、(5,8)、(11,9)、(13,20)、(26,12)、(25,29)、(53,28)、(42,58)和(87,77)。

2.5 損失函數(shù)

本網(wǎng)絡(luò)分別檢測兩個屬性的目標(biāo),因此損失函數(shù)包含密集區(qū)域的檢測損失和目標(biāo)實例的檢測損失,如式(1)所示。兩個損失函數(shù)的計算同文獻(xiàn)[7],位置損失采用smooth L1,分類損失采用Log loss,如式(2)(3),計算方法如式(4)(5)所示。采用難樣本挖掘(hard negative mining)對正負(fù)樣本進(jìn)行平衡,正負(fù)例比例設(shè)置為1:3。

式(1)中,Lall表示網(wǎng)絡(luò)的總損失,Ld和Lt分別是密集區(qū)域和目標(biāo)實例的損失,ε為目標(biāo)實例損失的權(quán)重因子。式(2)(3)中Ldconf和Ltconf分別為密集區(qū)域和目標(biāo)實例的置信度損失,Ldloc和Ltloc為位置損失,Nd和Nt為被標(biāo)注框編碼到的初始框數(shù)目。式(4)中表示第k類目標(biāo)的第i個預(yù)測框和第j個初始框之間的交并比(IOU),若IOU 大于閾值則為1,否則為0(閾值一般取0.5)。為第i個預(yù)測框的四個位置參數(shù),為第j個初始框的四個位置參數(shù)(相對位置)。按照與初始框的IOU 是否大于閾值(一般取0.5)將預(yù)測框分為Pos 和Neg,Pos 表示正樣本,Neg 表示負(fù)樣本。式(5)中表示第i個預(yù)測框?qū)Φ趐類目標(biāo)的預(yù)測值,使用softmax 函數(shù)轉(zhuǎn)化為概率表述。

2.6 網(wǎng)絡(luò)的預(yù)測

首先對兩個通道的預(yù)測結(jié)果分別采用非極大值抑制進(jìn)行處理,選擇與各通道相適應(yīng)的交并比閾值去除同類重疊的邊框。保留實例檢測通道的各類別預(yù)測邊框,對密集區(qū)域檢測通道的預(yù)測框進(jìn)行閾值處理,去除一些得分較低的邊框。考慮到預(yù)測框為固定方位的四邊形,無法緊貼目標(biāo)輪廓,必然會包含大量背景誤差。尤其在空對地這種目標(biāo)密集分布的場景中,預(yù)測框之間相交的背景部分對非極大值抑制算法有更大的影響,因此本文采用了soft-nms[16]這種軟閾值的方法。而后,將預(yù)測得分較高的密集區(qū)域從原圖中裁剪出來,重新輸入到網(wǎng)絡(luò)中進(jìn)行檢測。若在裁剪后的圖像中再次檢測到密集區(qū)域,則將密集區(qū)域的圖像繼續(xù)重新輸出到網(wǎng)絡(luò)中,直到圖像中沒有密集區(qū)域。最后將所有實例檢測通道的預(yù)測框進(jìn)行整合,再次使用soft-nms 算法對邊框進(jìn)行篩選,得到最終的目標(biāo)實例框。

3 驗證與分析

實驗在Ubuntu16.04 系統(tǒng)的Pytorch 框架下運行,并使用CUDA8.0 和cuDNN5.0 來加速訓(xùn)練。計算機(jī)搭載 的 CPU 為 Corei7-8700k,顯 卡 為 NVIDIA GTX1080Ti,內(nèi)存為32G。

3.1 數(shù)據(jù)集制作

為驗證本文算法的有效性,建立了空對地密集區(qū)域數(shù)據(jù)集。本文數(shù)據(jù)集由谷歌地球上截取的1600 張圖像和DOTA[17]數(shù)據(jù)集上篩選的800 張圖像組成。圖像包含5 類目標(biāo),分別是船、汽車、卡車、飛機(jī)和密集區(qū)域。標(biāo)注框為常見的(x,y,w,h)類型,其中(x,y)代表邊框的中心位置,(w,h)為邊框的寬和高。圖像尺寸跨度較大,從最小的300×300 像素到最大的4000×4000 像素。每張圖像都包含了至少5 個目標(biāo)實例,最多甚至包含2000 個目標(biāo)實例。實例的尺寸最小為30×30 像素,最大為1000×1000 像素(密集目標(biāo)區(qū)域)。按照1:4 的比例,將數(shù)據(jù)集分為了測試集和訓(xùn)練集。不同于其他常見數(shù)據(jù)集,本數(shù)據(jù)集中增加了密集區(qū)域這種較為抽象的標(biāo)注。在標(biāo)注中,我們基于以下三個原則對密集區(qū)域進(jìn)行描述:

1)對于任意密集邊框Mn,其內(nèi)部包含的目標(biāo)實例λi滿足i>5。

2)對任意Mn內(nèi)的目標(biāo)實例λi(xi,yi,wi,hi),總能找到另外一個λj(xj,yj,wj,hj)滿足公式<30。

3)若λi∈Mn,則λi的邊框所有頂點均在Mn內(nèi)部。

由于數(shù)據(jù)集中,拍攝視距為近低空,因此圖像場景涵蓋范圍有限,訓(xùn)練集每幅圖像的密集區(qū)域邊框最多為4 個。部分?jǐn)?shù)據(jù)集標(biāo)注圖像如圖6所示,采用labelimg 軟件進(jìn)行標(biāo)注。其中目標(biāo)實例由黑色實線綠色頂點的方框標(biāo)注,圖6中陰影邊框為部分密集區(qū)域類別的標(biāo)注框。

圖6 部分標(biāo)注數(shù)據(jù)集Fig.6 Partially labeled data set

3.2 算法效果驗證

由于密集區(qū)域的檢測僅為二分類,并且密集區(qū)域尺度相對較大,重疊度較低,相對于目標(biāo)實例的檢測來說難度更低。因此在網(wǎng)絡(luò)訓(xùn)練時,應(yīng)更注重對目標(biāo)實例的檢測,本文將損失函數(shù)的ε設(shè)置為0.7。

網(wǎng)絡(luò)預(yù)測階段,在密集區(qū)域檢測,目標(biāo)實例檢測和最終的預(yù)測框整合三個階段分別采用了soft-nms 算法。由于密集區(qū)域之間分布較稀疏,并且在標(biāo)注時邊框之間重疊較少,因此將閾值設(shè)置為0.3;檢測目標(biāo)實例檢測的閾值采用常用的0.6;預(yù)測框的整合階段與雙通道的檢測之間相互獨立,并且不會影響檢測精度,因此將閾值設(shè)置為0.4。

表1 算法有效性分析Tab.1 Analysis of algorithm effectiveness

對本算法的有效性進(jìn)行分析,如表1所示。目標(biāo)檢測準(zhǔn)確度用mAP 表示。若網(wǎng)絡(luò)僅采用YoloV3 算法對四類目標(biāo)實例進(jìn)行檢測時,精度僅有47.1%。僅單獨對密集區(qū)域進(jìn)行檢測時,精度達(dá)到了82.3%,遠(yuǎn)高于目標(biāo)實例的精度。當(dāng)同時對目標(biāo)實例和密集區(qū)域進(jìn)行檢測時,平均精度分別為39.3%和73.5%,相比原始算法精度下降較多。這是由于目標(biāo)數(shù)目增加,網(wǎng)絡(luò)檢測難度加大;密集區(qū)域這類抽象的目標(biāo)與目標(biāo)實例之間存在耦合關(guān)系,對分類產(chǎn)生影響;同時,本數(shù)據(jù)集目標(biāo)實例的選框較小,而密集區(qū)域的選框相對較大,對初始框的生成有更高的要求。本文算法對目標(biāo)實例和密集區(qū)域的平均檢測精度為63.5%和79.8%。將本文算法雙通道之間的耦合關(guān)系去除后,目標(biāo)實例的檢測精度下降為60.4%,證明了通道耦合結(jié)構(gòu)的有效性。將預(yù)測階段的密集區(qū)域變分辨率檢測去除后,目標(biāo)實例檢測精度下降為45.4%,說明變分辨率檢測對算法精度有極大的提升。在本文算法的測試中,密集區(qū)域檢測通道的檢測精度基本維持不變,這是因為在此網(wǎng)絡(luò)中的耦合結(jié)構(gòu)和預(yù)測結(jié)構(gòu)對密集區(qū)域通道參數(shù)的影響較少。密集區(qū)域檢測通道的檢測精度相對于同時檢測目標(biāo)實例和密集區(qū)域的YoloV3 算法有所提升,這是因為本文網(wǎng)絡(luò)獨立地檢測密集區(qū)域,減少了與目標(biāo)實例之間的耦合,同時針對該通道設(shè)置初始框。然而由于兩個通道共享DarkNet53 特征提取網(wǎng)絡(luò)的參數(shù),因此密集區(qū)域的檢測精度達(dá)不到Y(jié)oloV3 單獨檢測時的精度。

為進(jìn)一步驗證算法的有效性,將各階段圖像進(jìn)行可視化對比。圖7為輸入的原始圖像,尺寸為4969×3569 像素,圖中包含的目標(biāo)為飛機(jī),實例數(shù)目為148 架。最小的飛機(jī)尺度僅為42×44 像素,在輸入網(wǎng)絡(luò)進(jìn)行壓縮后,降為4×5 像素,在進(jìn)行特征提取時基本失效。傳統(tǒng)的YoloV3 的檢測結(jié)果如圖8所示。

圖7 原始輸入圖像Fig.7 Original input image

圖8中,可以明顯發(fā)現(xiàn)算法對小目標(biāo)的檢測效果極差(圖像右下角的區(qū)域),尤其當(dāng)小目標(biāo)分布密集時,算法將實例之間的特征混淆,出現(xiàn)一個框同時框住多個目標(biāo)的情況。

在本文算法的第一階段檢測中,密集區(qū)域檢測通道的結(jié)果如圖9所示。圖中共檢測到4 個密集區(qū)域,與標(biāo)注信息一致。

圖8 YoloV3 算法的檢測結(jié)果Fig.8 YoloV3 algorithm detection results

圖9 密集區(qū)域檢測結(jié)果Fig.9 Dense area test results

圖10 目標(biāo)實例檢測結(jié)果Fig.10 Target instance test results

目標(biāo)實例檢測結(jié)果如圖11所示,當(dāng)算法耦合了密集區(qū)域的信息之后,對密集目標(biāo)和小目標(biāo)有了更強(qiáng)的魯棒性,檢測到了更多目標(biāo)實例。同時,證明了雙通道耦合結(jié)構(gòu)的優(yōu)越性。

在第二階段,分別對4 個密集區(qū)域再次進(jìn)行檢測,結(jié)果如圖11所示(以左上角和右下角的密集區(qū)域為例)??梢园l(fā)現(xiàn),在右下角密集區(qū)域檢測中,原始的難檢測目標(biāo)基本檢測正確。而左上角的區(qū)域卻檢測失效,沒有一個正例被檢測到,這是因為此密集區(qū)域的長寬比失調(diào)。在輸入網(wǎng)絡(luò)壓縮到416×416 像素時,目標(biāo)實例形變嚴(yán)重,極大的影響了特征的提取和識別。

圖11 密集區(qū)域的檢測Fig.11 Detection of dense areas

圖12 本文算法的檢測結(jié)果Fig.12 Test results of our method

由于第二次檢測后,沒有再出現(xiàn)密集目標(biāo),因此最終檢測結(jié)果如圖12所示,目標(biāo)最終的邊框由第一次和第二次檢測結(jié)果通過soft-nms 算法篩選后得到。圖中可以看出,相比傳統(tǒng)YoloV3 檢測結(jié)果和第一次檢測結(jié)果有了極大的提升。

3.3 算法性能分析

考慮到該算法的實際應(yīng)用,選擇計算速度較快的單階段檢測算法進(jìn)行對比。單階段檢測算法目前主要分為SSD 系列和Yolo 系列,對傳統(tǒng)SSD 算法、YoloV2算法、YoloV3 算法以及目前表現(xiàn)較好的FSSD 算法與本文算法對比,結(jié)果如表2所示。其中正例定義為與標(biāo)注信息的IOU 大于0.5。FPS 為每秒檢測幀數(shù)。

表2 各類算法性能對比Tab.2 Performance comparison of various algorithms

從表中可以看出在檢測精度上,基于SSD 網(wǎng)絡(luò)的檢測算法和YoloV2 算法在本文數(shù)據(jù)集中表現(xiàn)較差,尤其是在檢測艦船類目標(biāo)時基本失效。YoloV3 在本數(shù)據(jù)集上適應(yīng)性較強(qiáng),相比于SSD 算法提升了27.6%的平均精度,并且在艦船的檢測上有了大幅度的提升。而本文提出的算法達(dá)到了最高的檢測精度,相比YoloV3 算法提升了16.4%的平均精度,在各個類別的檢測上都有較大提升。在檢測速度上,YoloV2 延續(xù)了其速度的優(yōu)勢,但是檢測精度最低。由于本文算法多次對密集區(qū)域進(jìn)行檢測,每次提取的密集區(qū)域都要重新經(jīng)過網(wǎng)絡(luò)進(jìn)行特征提取、定位和分類,因此隨著密集區(qū)域和算法復(fù)雜度的增加,相較于YoloV3 損失了一定的檢測速度,但是精度卻有極大提升。總體來看,本文算法在性能上要超過其他算法。

將本文算法的部分檢測結(jié)果進(jìn)行可視化,結(jié)果如圖13所示。由于數(shù)據(jù)集中圖像尺寸變化較大,因此統(tǒng)一將檢測結(jié)果壓縮到1000×1000 像素。圖中可以看出,本文算法對密集小目標(biāo)的檢測度較高,尤其是在檢測艦船目標(biāo)上(以a 為例),相比圖1中傳統(tǒng)的SSD 網(wǎng)絡(luò)和YoloV3 網(wǎng)絡(luò)有較大提升。

圖13 本文算法部分檢測結(jié)果Fig.13 Part of the test results of our method

4 結(jié) 論

密集小目標(biāo)的檢測是空對地場景下目標(biāo)檢測領(lǐng)域中一個極具挑戰(zhàn)性的課題,為此本文提出了一種雙通道密集場景聚焦的算法。首先分析了深度學(xué)習(xí)目標(biāo)檢測算法在密集小目標(biāo)檢測中存在的問題;而后結(jié)合人眼搜索的特點,在傳統(tǒng)YoloV3 網(wǎng)絡(luò)的基礎(chǔ)上獨立地建立了一條密集場景檢測通道,對檢測到的密集區(qū)域再次變尺度檢測;最后自制空對地場景的密集區(qū)域數(shù)據(jù)集,對本文算法進(jìn)行了驗證。實驗表明,本文算法能有效地對目標(biāo)進(jìn)行檢測,相比傳統(tǒng)的YoloV3 算法在精度上有16.4%的提升,為空對地密集小目標(biāo)的檢測提供了一種新的思路。然而,總的來說,算法依舊存在較多漏檢和錯檢問題,在非密集區(qū)域,小尺度目標(biāo)的檢測度依舊較低,這也是未來需要解決的問題。

猜你喜歡
密集邊框實例
一模六產(chǎn)品篩板模具的設(shè)計與應(yīng)用
智能制造(2022年4期)2022-08-18 16:21:14
耕地保護(hù)政策密集出臺
密集恐懼癥
英語文摘(2021年2期)2021-07-22 07:56:52
用Lightroom添加寶麗來邊框
給照片制作專業(yè)級的邊框
擺脫邊框的束縛優(yōu)派
中國照明(2016年6期)2016-06-15 20:30:14
歐盟等一大波家電新標(biāo)準(zhǔn)密集來襲
完形填空Ⅱ
完形填空Ⅰ
密集預(yù)披露≠IPO發(fā)行節(jié)奏生變
法人(2014年5期)2014-02-27 10:44:28
十堰市| 裕民县| 肃宁县| 石家庄市| 通道| 泸西县| 安阳市| 临潭县| 兰考县| 沙雅县| 二连浩特市| 崇信县| 象山县| 获嘉县| 会东县| 维西| 育儿| 荃湾区| 阿瓦提县| 武山县| 彰化市| 峨边| 旬邑县| 大埔县| 松溪县| 临潭县| 津市市| 磐石市| 瑞丽市| 阿巴嘎旗| 德格县| 扎兰屯市| 达州市| 武清区| 南陵县| 永昌县| 嘉荫县| 连城县| 宁都县| 霍林郭勒市| 文安县|