国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLov2模型的道路目標(biāo)檢測(cè)改進(jìn)算法

2019-02-07 05:32宋建國(guó)吳岳
軟件導(dǎo)刊 2019年12期
關(guān)鍵詞:魯棒性深度學(xué)習(xí)

宋建國(guó) 吳岳

摘要:針對(duì)傳統(tǒng)道路目標(biāo)檢測(cè)算法推薦窗口冗余、魯棒性差、復(fù)雜度較高的問(wèn)題,提出基于YOLOv2模型的道路目標(biāo)檢測(cè)改進(jìn)算法。相較于傳統(tǒng)的HOG+SVM目標(biāo)檢測(cè)算法,YOLO模型優(yōu)勢(shì)在于提升了檢測(cè)速度及準(zhǔn)確度,更適用于實(shí)時(shí)目標(biāo)檢測(cè)。比較YOLO V3與YOLO V2算法,前者在構(gòu)造神經(jīng)網(wǎng)絡(luò)模型時(shí)復(fù)雜度較高,故最終選擇YOLO V2算法。針對(duì)原算法中選取AnchorBoxes時(shí)所采用的K-MEANS算法造成的目標(biāo)物體框冗余問(wèn)題,以及原算法對(duì)于不規(guī)則物體以及遮擋物體檢測(cè)效果較差等問(wèn)題,提出基于YOLO V2模型的一種改進(jìn)方法,將K-MEANS算法改進(jìn)為一種DA-DBSCAN算法,通過(guò)動(dòng)態(tài)調(diào)整參數(shù)的方式大大減少了錨點(diǎn)框冗余問(wèn)題。實(shí)驗(yàn)表明,改進(jìn)后的模型準(zhǔn)確率達(dá)到96.76%,召回率達(dá)到96.73%,檢測(cè)幀數(shù)達(dá)到37幀/s,能夠滿(mǎn)足實(shí)時(shí)性要求。

關(guān)鍵詞:目標(biāo)檢測(cè)算法;魯棒性;深度學(xué)習(xí);不規(guī)則;DA-DBSCAN;錨點(diǎn)框

DOI:10.11907/rjd k.191279

中圖分類(lèi)號(hào):TP312 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2019)012-0126-04

0引言

傳統(tǒng)的目標(biāo)檢測(cè)算法大多基于計(jì)算機(jī)視覺(jué)對(duì)已經(jīng)形成的圖像進(jìn)行多步分析,在卷積網(wǎng)絡(luò)問(wèn)世之前DPM(De-formable Parts Model)是一個(gè)可行的目標(biāo)檢測(cè)算法。該算法采用SVM(支持向量機(jī))加HOG(梯度直方圖)對(duì)經(jīng)過(guò)處理的圖像提取特征進(jìn)行分類(lèi),但在整個(gè)目標(biāo)檢測(cè)過(guò)程中,對(duì)于區(qū)域選擇階段的目標(biāo)窗口推薦容易造成推薦窗口冗余現(xiàn)象,大多推薦的目標(biāo)窗口不能利用。后來(lái)卷積神經(jīng)網(wǎng)絡(luò)問(wèn)世,在深度學(xué)習(xí)領(lǐng)域結(jié)合計(jì)算機(jī)圖像圖形學(xué)等多項(xiàng)技術(shù),在目標(biāo)圖像的復(fù)雜特征提取方面有了巨大進(jìn)步,使得目標(biāo)檢測(cè)的精確率和召回率得到極大提升。

之后產(chǎn)生了一系列目標(biāo)檢測(cè)算法:在CVPR大會(huì)上提出的RCNN(Reigions with CNN),通過(guò)探索性選擇滑動(dòng)目標(biāo)窗口形式,生成有可能包含被檢測(cè)物體的目標(biāo)窗口,并且逐一采取分類(lèi)器識(shí)別方式對(duì)所有窗口進(jìn)行識(shí)別,然后通過(guò)對(duì)候選滑動(dòng)窗口的處理去除冗余窗口;Fast-Rcnn以及Faster-Rcnn逐漸將提取特征圖的部分與分類(lèi)部分合二為一,前者將特征圖輸人到一個(gè)全連接層中,從而得到相應(yīng)的回歸判定,后者則將提取特征圖部分融合到神經(jīng)網(wǎng)絡(luò)中,實(shí)現(xiàn)了一體化操作。這兩種算法將VOC 2007上的MAP分別提升至70%、73.2%。多模型在相同數(shù)據(jù)集上的對(duì)比表現(xiàn)如表1所示。

DIVVALA等學(xué)者提出將回歸思想融合到常規(guī)目標(biāo)檢測(cè)過(guò)程中,從而形成了YOLO模型。但是YOLO算法同傳統(tǒng)目標(biāo)檢測(cè)算法SSD:一樣具有定位不準(zhǔn)確問(wèn)題。之后在YOLO算法基礎(chǔ)上改進(jìn),提出了YOLO V2算法。與傳統(tǒng)的多分類(lèi)尺度候選框選擇方式不同,YOLO V2使用聚類(lèi)算法K-means作為Anchor Boxes選擇規(guī)則,進(jìn)一步提升了速度,并且在VOC 2007上的MAP表現(xiàn)達(dá)到了前所未有的78.6%。

筆者在利用YOLO V2模型進(jìn)行目標(biāo)檢測(cè)時(shí)發(fā)現(xiàn),其對(duì)不規(guī)則目標(biāo)的識(shí)別準(zhǔn)確度不高,并且在出現(xiàn)物體半遮擋情況下并不能正確識(shí)別目標(biāo)物。為此,提出用DA-DB-SCAN算法替代K-means進(jìn)行候選框篩選,并對(duì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,使其更適合道路目標(biāo)實(shí)時(shí)檢測(cè)。

1YoLo V2算法

1.1算法結(jié)構(gòu)

相較于Faster-Rcnn以及YOLO V1,YOLO V2采取了一系列調(diào)優(yōu)算法。從整個(gè)網(wǎng)絡(luò)訓(xùn)練速度看,YOLO V2采用了Batch Normalization(批量歸一化)處理,在每次完成網(wǎng)絡(luò)卷積后,將特征數(shù)據(jù)進(jìn)行歸一化處理,這樣一是提高了整體網(wǎng)絡(luò)的訓(xùn)練速度,二是去除了一部分的離群數(shù)據(jù)。為了獲取更準(zhǔn)確的目標(biāo)框信息,在YOLO V2模型的末尾全連接層替換為錨點(diǎn)框?qū)z測(cè)目標(biāo)進(jìn)行預(yù)測(cè)。

本文實(shí)驗(yàn)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。首先將圖片通過(guò)Normalization統(tǒng)一到Y(jié)OLO V2網(wǎng)絡(luò)模型中,統(tǒng)一圖片輸入大小。經(jīng)過(guò)模型中定義好的13層卷積并采用Maxpool池化策略進(jìn)行4次池化,然后將提取出來(lái)的特征圖再次進(jìn)行卷積與池化,最終對(duì)經(jīng)過(guò)處理后的整合結(jié)果進(jìn)行卷積操作,生成13"13*3072的特征圖。

1.2模型評(píng)價(jià)方法

物體檢測(cè)主要判斷是否檢測(cè)到物體以及檢測(cè)到的物體是否被正確分類(lèi),所以可劃分為一個(gè)廣義的二分類(lèi)問(wèn)題,最終達(dá)到以較高的準(zhǔn)確率檢測(cè)出目標(biāo)物體并能夠正確對(duì)檢測(cè)出來(lái)的目標(biāo)進(jìn)行分類(lèi)的目的。在此采取觀(guān)察模型訓(xùn)練時(shí)的召回率與準(zhǔn)確率判定模型優(yōu)劣,做出以下定義:①正確檢測(cè)出物體且正確分類(lèi):TrueObject;②正確檢測(cè)出物體但分類(lèi)錯(cuò)誤TrueFObject;③不是正確目標(biāo)物體但被檢測(cè)出為目標(biāo)并分類(lèi):FalseObject;④目標(biāo)是具體目標(biāo)物但并沒(méi)有被檢測(cè)出來(lái):FalseFObject,以此定義評(píng)價(jià)模型優(yōu)劣的準(zhǔn)確率以及召回率計(jì)算表達(dá)式見(jiàn)式(1)、式(2)。

2DA-DBSCAN算法

2.1算法分析

在YOLO V2模型中將原有YOLO模型和Faster-Rcnn中的候選框選擇策略,由傳統(tǒng)的人工定制多尺度候選框選擇策略改良為使用K-Means算法,該方法在去除無(wú)關(guān)候選框時(shí)效果顯著,能將同一張?zhí)卣鲌D上的同類(lèi)目標(biāo)以更加準(zhǔn)確的效果聚為一類(lèi),但同時(shí)也帶來(lái)算法自身的弊端:首先對(duì)不同特征圖的超參數(shù)K值選擇計(jì)算量較大,其次由算法本身帶來(lái)的不規(guī)則物體識(shí)別效果較差,并且在目標(biāo)前存在遮擋物時(shí)無(wú)法正確識(shí)別目標(biāo)。

傳統(tǒng)DBSCAN算法雖然能夠解決不規(guī)則物體識(shí)別和聚類(lèi)數(shù)量超參數(shù)選擇問(wèn)題,但是隨之而來(lái)的超參數(shù)調(diào)節(jié)問(wèn)題增加了模型復(fù)雜度,對(duì)此提出改進(jìn)算法:Mimarogli提出基于位向量的分類(lèi)切割方法,縮短原有算法的執(zhí)行時(shí)間;Zhou分析了算法中兩個(gè)超參數(shù)(Eps,MinPts)的手動(dòng)設(shè)置問(wèn)題,發(fā)現(xiàn)兩者的排列符合數(shù)學(xué)中數(shù)理特征,能通過(guò)某種算法自適應(yīng)地確定全局變量;Liu提出一種依據(jù)維度的相對(duì)排序坐標(biāo),將核心對(duì)象外的鄰域點(diǎn)作為種子拓展聚類(lèi),從而減少同一特征的查詢(xún)次數(shù),提高聚類(lèi)精度,降低對(duì)特征環(huán)境以及閾值的依賴(lài)性;Kellner提出了一種基于網(wǎng)點(diǎn)的DBSCAN算法,解決了輸人參數(shù)問(wèn)題。

綜上所述,本文提出的DA-DBSCAN(Dynamic Adjust-ment-DBSCAN,動(dòng)態(tài)調(diào)整-DBSCAN)算法在目標(biāo)聚類(lèi)上避免了K-Means算法帶來(lái)的不規(guī)則物體無(wú)法正確識(shí)別問(wèn)題,并能動(dòng)態(tài)依據(jù)特征數(shù)據(jù)調(diào)整超參數(shù)Eps和MinPts,從而節(jié)省大量人工調(diào)參的時(shí)間消耗,在存在遮擋物時(shí)識(shí)別效果較原有算法有小幅提升,提升了目標(biāo)檢測(cè)的召回率和準(zhǔn)確率。

2.2算法實(shí)現(xiàn)

由于特征密度測(cè)量數(shù)據(jù)單一,本聚類(lèi)中主要是聚類(lèi)密度差異較小的目標(biāo)物,故定義距離公式如下:

式(3)中Distrbutionn×n是一個(gè)對(duì)稱(chēng)陣,內(nèi)部是每個(gè)目標(biāo)元素i與目標(biāo)元素j之間的距離。根據(jù)矩陣中的距離數(shù)據(jù)繪制K-DIST分布圖,從而反映本特征圖中目標(biāo)之間的距離變化。本文實(shí)驗(yàn)的K-DIST圖如圖2所示。

從圖2可以看出,大部分?jǐn)?shù)據(jù)落在相對(duì)集中的距離分組中,可通過(guò)數(shù)理統(tǒng)計(jì)中的方法識(shí)別出距離急劇下降位置的數(shù)值大小,幫助判定出半徑參數(shù)Eps。隨后對(duì)特征數(shù)據(jù)進(jìn)行高斯曲線(xiàn)擬合,同時(shí)使用SSE和RMSE作為曲線(xiàn)擬合的評(píng)價(jià)參數(shù),經(jīng)過(guò)多次試驗(yàn)將RMSE調(diào)整至1附近,這時(shí)對(duì)數(shù)據(jù)的擬合更加準(zhǔn)確。多項(xiàng)式擬合曲線(xiàn)如下:

2.3算法分析

通過(guò)高斯函數(shù)曲線(xiàn)擬合的方式可以更好地去除離群的特征值,更大程度上排除一些不包含實(shí)際目標(biāo)物的An-chor Boxes,并通過(guò)將密度積累算法DBSCAN與統(tǒng)計(jì)學(xué)中的曲線(xiàn)模型相結(jié)合的方式,基于數(shù)理統(tǒng)計(jì)通過(guò)動(dòng)態(tài)調(diào)節(jié)方式計(jì)算出最適合每一張?zhí)卣鲌D的全局最優(yōu)超參數(shù)Eps和Mint'ts。

3模型實(shí)驗(yàn)

為驗(yàn)證相關(guān)模型的可行性,本文使用多種不同算法模型進(jìn)行召回率與準(zhǔn)確率比對(duì),最終展示模型效果。

3.1實(shí)驗(yàn)數(shù)據(jù)與結(jié)果

本文采用標(biāo)準(zhǔn)數(shù)據(jù)集加實(shí)況道路視頻采集的1583張圖片自制數(shù)據(jù)集庫(kù),隨機(jī)選取其中1215張作為訓(xùn)練集,剩下的368張作為測(cè)試集,經(jīng)過(guò)縮放輸入,對(duì)改進(jìn)后的YO-LO V2模型進(jìn)行效果監(jiān)測(cè),人工數(shù)據(jù)集參數(shù)如表2所示,實(shí)驗(yàn)效果如圖3所示。

3.2實(shí)驗(yàn)分析

將訓(xùn)練集中的數(shù)據(jù)導(dǎo)人到改良后的YOLO V2模型中進(jìn)行訓(xùn)練,在大約經(jīng)過(guò)25h的訓(xùn)練下,迭代110000次后得到最終的目標(biāo)檢測(cè)模型,采用驗(yàn)證集的368張實(shí)時(shí)圖片進(jìn)行驗(yàn)證,同時(shí)對(duì)于兩種傳統(tǒng)目標(biāo)檢測(cè)算法在相同的硬件情況下進(jìn)行訓(xùn)練,使用相同的驗(yàn)證集進(jìn)行驗(yàn)證,最終對(duì)3種算法模型進(jìn)行評(píng)價(jià)對(duì)比,結(jié)果如表3所示。

Faster-RCNN算法是在R-CNN算法之后經(jīng)一系列優(yōu)化算法改進(jìn)后形成的,是目前效果較好且經(jīng)典的目標(biāo)檢測(cè)算法,具有極強(qiáng)的代表性。本文將改良后的YOLO V2算法與原算法以及Faster R-CNN進(jìn)行效果對(duì)比,如圖4、圖5所示。從圖4、圖5可以看出,3種算法準(zhǔn)確率都在一個(gè)較高數(shù)值上,但是在召回率方面,改良后的YOLO V2算法體現(xiàn)出DA-DBSCAN算法的優(yōu)勢(shì),對(duì)遮擋物體以及不規(guī)則物體的召回率較高,達(dá)到了96.73%。在實(shí)時(shí)性方面,改良后的算法模型在每秒檢測(cè)幀數(shù)上比Faster R-CNN效果好,并且遠(yuǎn)高于傳統(tǒng)的DPM算法效果,達(dá)到了37幀,s,足以滿(mǎn)足實(shí)時(shí)性要求。從圖3(d)、圖3(e)中可以看出,經(jīng)過(guò)改良后的YOLO V2算法對(duì)不規(guī)則目標(biāo)如車(chē)內(nèi)的人以及遮擋目標(biāo)的檢測(cè)效果方面有所上升,與原模型相比在目標(biāo)召回率上有所提升,且在執(zhí)行速度上略有提高。

4結(jié)語(yǔ)

本文針對(duì)原YOLO V2模型對(duì)小物體、不規(guī)則物體、遮擋物體檢測(cè)效率低的問(wèn)題,對(duì)原有算法進(jìn)行改良,通過(guò)更改原模型中的目標(biāo)特征圖錨點(diǎn)框選擇策略,提升目標(biāo)物檢測(cè)的準(zhǔn)確度和召回率,對(duì)特殊物體做到不漏檢。后續(xù)將應(yīng)用到無(wú)人設(shè)備,與多種傳感器組合,進(jìn)一步提升現(xiàn)有物體檢測(cè)設(shè)備的準(zhǔn)確度,開(kāi)發(fā)出更加快速、精準(zhǔn)的目標(biāo)識(shí)別算法并應(yīng)用于實(shí)際。

猜你喜歡
魯棒性深度學(xué)習(xí)
武漢軌道交通重點(diǎn)車(chē)站識(shí)別及網(wǎng)絡(luò)魯棒性研究
荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
基于時(shí)差效用的雙目標(biāo)資源約束型魯棒性項(xiàng)目調(diào)度優(yōu)化
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性?xún)?yōu)化
西南交通大學(xué)學(xué)報(bào)(2016年6期)2016-05-04
东丽区| 安阳市| 开鲁县| 宣恩县| 辉南县| 肥乡县| 大姚县| 友谊县| 泸水县| 吉林省| 大新县| 关岭| 和林格尔县| 恩平市| 共和县| 伊吾县| 房山区| 锡林浩特市| 池州市| 英山县| 民权县| 方城县| 武穴市| 杨浦区| 闸北区| 寻乌县| 尤溪县| 林西县| 乐至县| 海盐县| 江华| 长丰县| 丰都县| 黄大仙区| 潮安县| 西青区| 铜鼓县| 江安县| 乌什县| 西安市| 天镇县|