国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于小型化YOLOv3的實(shí)時(shí)車輛檢測及跟蹤算法

2020-08-26 06:45:26許小偉陳乾坤李浩東唐志鵬
公路交通科技 2020年8期
關(guān)鍵詞:小型化特征提取殘差

許小偉,陳乾坤,錢 楓,李浩東,唐志鵬

(武漢科技大學(xué) 汽車與交通工程學(xué)院,湖北 武漢 430081)

0 引言

隨著汽車保有量的快速增長,大量學(xué)者對高級(jí)輔助駕駛系統(tǒng)(Advanced Driver Assistance Systems,ADAS)展開了深入研究,車輛檢測已經(jīng)成為了ADAS研究中的一個(gè)重點(diǎn)[1-2],對前方道路車輛的有效檢測及跟蹤,是安全輔助駕駛系統(tǒng)做出判斷和預(yù)警的重要組成部分,而對檢測算法模型的小型化成為車載嵌入式設(shè)備快速、實(shí)時(shí)運(yùn)行的前提與手段。

基于傳統(tǒng)方法的目標(biāo)檢測算法中,通過人工設(shè)計(jì)梯度直方圖(Histogram of gradient,HOG)[3]、尺度不變特征變換(Scale-invariant feature transform,SIFT)[4]、哈爾特征Haar-like[5]等特征提取器來提取目標(biāo)特征,再輸入到支持向量機(jī)(Support vector machine,SVM)[6-7],迭代器AdaBoost[8-9]、隨機(jī)森林(Random Forest,RF)[10]等分類器中進(jìn)行分類識(shí)別。但是傳統(tǒng)人工設(shè)計(jì)的特征泛化性差,不同場景需要設(shè)計(jì)選擇不同的特征,提取出合理特征難度較大,運(yùn)算復(fù)雜度高,限制了實(shí)際應(yīng)用[11]。

基于深度學(xué)習(xí)的檢測算法可以分為基于區(qū)域法和基于回歸法兩種?;趨^(qū)域的方法通過選擇性搜索(selective search)算法來生成候選區(qū)域,再使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類處理,主要方法有R-CNN[12],F(xiàn)ast R-CNN[13],F(xiàn)aster R-CNN[14-15],Massk R-CNN[16],SPP-Net[17]等。此種基于區(qū)域的方法分兩步進(jìn)行檢測,檢測精度高,但存在網(wǎng)絡(luò)復(fù)雜,檢測速度慢的缺點(diǎn)。基于回歸法的方法如SSD[18]、YOLO[19]把目標(biāo)檢測問題當(dāng)成回歸問題,可直接回歸出物體類別概率及坐標(biāo)位置。采用基于回歸的YOLO系列算法處理速度快,正確率高,在實(shí)際工業(yè)部署中得到了廣泛應(yīng)用[20]。YOLOv2[11,21],YOLOv3[22]在YOLO算法的基礎(chǔ)上進(jìn)一步改進(jìn),使得檢測效果進(jìn)一步加強(qiáng)。但速度較快的基于回歸的檢測算法網(wǎng)絡(luò)結(jié)構(gòu)仍然較大,移植部署到實(shí)車嵌入式設(shè)備的運(yùn)行速度較慢,實(shí)際部署成本高。

針對以上目標(biāo)檢測網(wǎng)絡(luò)檢測精度與檢測速度相矛盾問題,本研究提出一種改進(jìn)的YOLOv3網(wǎng)絡(luò)采用K-means++算法聚類來提取先驗(yàn)框,通過構(gòu)建殘差網(wǎng)絡(luò)層數(shù)更少、網(wǎng)絡(luò)深度更淺的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)來將卷積模型小型化,同時(shí)利用不同的尺度卷積特征多層次提取車輛特征信息來保證精度,解決網(wǎng)絡(luò)模型大、精度不高的問題。通過卡爾曼跟蹤算法和匈牙利算法進(jìn)行數(shù)據(jù)關(guān)聯(lián),實(shí)現(xiàn)對多個(gè)目標(biāo)的精確定位與跟蹤。在保證準(zhǔn)確性的前提下,小型化了網(wǎng)絡(luò)模型,提高了檢測速度,保證了車輛檢測時(shí)對準(zhǔn)確性以及實(shí)時(shí)性的要求。

1 車輛檢測及跟蹤算法流程

本研究設(shè)計(jì)的小型化網(wǎng)絡(luò)車輛檢測及測距流程如圖1所示。首先改進(jìn)YOLOv3結(jié)構(gòu)的骨干Darknet-53網(wǎng)絡(luò),構(gòu)建了一種網(wǎng)絡(luò)層次較淺、速度較快的檢測網(wǎng)絡(luò)結(jié)構(gòu),并對此網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí),用該網(wǎng)絡(luò)模型確定前方車輛在圖像中的位置信息,實(shí)現(xiàn)前方車輛的快速檢測。其次利用卡爾曼濾波對下一時(shí)刻的車輛位置進(jìn)行預(yù)測,并采用匈牙利分配算法關(guān)聯(lián)視頻相鄰幀中的車輛,實(shí)現(xiàn)車輛的穩(wěn)定檢測。

圖1 車輛檢測及跟蹤流程圖Fig.1 Flowchart of vehicle detection and tracking

2 YOLOv3深度網(wǎng)絡(luò)模型原理及小型化改進(jìn)

2.1 YOLOv3基本原理及流程

YOLOv3采用類特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)[23]的多尺度變換和類ResNet的殘差網(wǎng)絡(luò),設(shè)計(jì)了分類網(wǎng)絡(luò)基礎(chǔ)模型Darknet-53[24]。此網(wǎng)絡(luò)同時(shí)具有較快的檢測速度以及較小的網(wǎng)絡(luò)復(fù)雜度,相比于常用的VGG-16基礎(chǔ)特征提取網(wǎng)絡(luò)降低了模型運(yùn)算量[25]。

Darknet-53通過多層卷積核卷積形成深層次卷積層。在不同卷積層上分別采用1,2,8,8,4多個(gè)類ResNet的殘差網(wǎng)絡(luò)跳層連接,將殘差網(wǎng)絡(luò)經(jīng)過多次卷積后與原始?xì)埐罹W(wǎng)絡(luò)進(jìn)行疊加,保證了殘差網(wǎng)絡(luò)在較深的情況下,仍能較好收斂。同時(shí)采用類FPN的多尺度變化預(yù)測的方法,利用3個(gè)尺度進(jìn)行檢測,最終網(wǎng)絡(luò)輸出3個(gè)不同尺度的特征圖,在不同尺度特征圖上分別使用3個(gè)不同的先驗(yàn)框anchors進(jìn)行預(yù)測識(shí)別,最終使得遠(yuǎn)近大小目標(biāo)均能得到較好的檢測。

圖2 小型化YOLOv3網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.2 Miniaturized YOLOv3 network model structure

2.2 針對小型化目標(biāo)檢測的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

YOLOv3中有較多的殘差結(jié)構(gòu)以及1×1,3×3的卷積層,為了滿足ADAS系統(tǒng)的實(shí)時(shí)性需求,需進(jìn)一步減小網(wǎng)絡(luò)層數(shù)、使網(wǎng)絡(luò)小型化,加快網(wǎng)絡(luò)運(yùn)行速度。對YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修改,不再采用Darknet-53為骨干網(wǎng)絡(luò),而是借鑒和darknet19類似的YOLOv3-tiny的結(jié)構(gòu),主干網(wǎng)絡(luò)采用一個(gè)7層的Conv卷積層,在每一Conv卷積層的殘差網(wǎng)絡(luò)結(jié)構(gòu)中,采用更少的重復(fù)殘差單元,通過減少卷積層,以降低網(wǎng)絡(luò)深度。

改進(jìn)提出的小型化YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。網(wǎng)絡(luò)輸入尺寸為416×416×3,采用一個(gè)包含16個(gè)3×3卷積核的卷積層對輸入網(wǎng)絡(luò)進(jìn)行初步特征提取。特征卷積提取公式為:

(1)

式中,ai,j為新生成特征提取層坐標(biāo)為(i,j)的值;wd,m,n為第d層F×F卷積核的坐標(biāo)為(m,n)的值;xd,i+m,j+n為輸入第d層坐標(biāo)為(i+m,j+n)的值;wb表示卷積核的偏置項(xiàng)。

將上一層提取得到的特征層網(wǎng)絡(luò)輸出作為下一層的輸入,然后采用32個(gè)步長為2的3×3卷積核進(jìn)行濾波,并且采用一個(gè)殘差塊來加強(qiáng)網(wǎng)絡(luò)特征提取,如圖3所示,該殘差塊由16個(gè)1×1的卷積核和32個(gè)3×3的卷積核連接構(gòu)成。殘差網(wǎng)絡(luò)公式為:

Outputlayer=H(Inputlayer)+Inputlayer,

(2)

式中,Inputlayer為類ResNet的殘差網(wǎng)絡(luò)的輸入層;H(Inputlayer)為將Inputlayer的輸入層進(jìn)行多次卷積操作;Outputlayer為殘差網(wǎng)絡(luò)的輸出層。

圖3 殘差塊結(jié)構(gòu)Fig.3 Residual block structure

采用相同原理方法,對后續(xù)的網(wǎng)絡(luò)結(jié)構(gòu)分別依次采用64,128,256,512,1 024個(gè)步長為2的3×3卷積核進(jìn)行濾波,使特征提取層長寬變小深度變深,能提取到更深層次特征。同時(shí)對后續(xù)的前4個(gè)不同卷積核分別依次采用2,2,4,4個(gè)殘差塊進(jìn)行連接,加強(qiáng)特征提取,同時(shí)也因相較于YOLOv3減少了大量網(wǎng)絡(luò)層數(shù),小型化了網(wǎng)絡(luò)結(jié)構(gòu),可加快學(xué)習(xí)和網(wǎng)絡(luò)正向推理運(yùn)行速度。

將大小為52×52,26×26,13×13的特征提取卷積層,共3層單獨(dú)提取出來,他們的深度分別為128,256,1 024。對13×13特征層依次采用512個(gè)1×1卷積核、1 024個(gè)3×3卷積核、18個(gè)1×1卷積核進(jìn)行卷積,使特征層網(wǎng)絡(luò)輸入為13×13×18。多次采用1×1卷積核的可以對卷積層進(jìn)行降維,減少卷積核通道數(shù),增加非線性激勵(lì),提升網(wǎng)絡(luò)表達(dá)能力。13×13的特征提取層不僅單獨(dú)輸出給后續(xù)函數(shù)進(jìn)行預(yù)測計(jì)算,同時(shí)將13×13的特征提取卷積層的信息通過上采樣的方式放大到26×26大小,并與原有的26×26特征層相連接,對26×26層進(jìn)行卷積后同時(shí)進(jìn)行輸出。原有的26×26層也采用相同方式與52×52相連接進(jìn)行輸出,以此得到多尺度的特征提取。采用多尺度特征提取的方式,可在網(wǎng)絡(luò)小型化的基礎(chǔ)上,仍能提取到較多待檢目標(biāo)卷積層信息,保證了小型化網(wǎng)絡(luò)目標(biāo)檢測的精度。

每一個(gè)輸出尺度都采用3個(gè)不同的先驗(yàn)框進(jìn)行預(yù)測,先驗(yàn)框尺寸是在數(shù)據(jù)集上通過聚類得到,由于K-means聚類算法對初始點(diǎn)選取較為敏感,需多次聚類得到較優(yōu)解。本研究提出采用K-means++算法[26]計(jì)算聚類,K-means++算法在初始點(diǎn)選擇進(jìn)行改進(jìn),能使聚類中心之間距離盡可能的遠(yuǎn)。K-menas++算法關(guān)鍵步驟如下:

(1)從數(shù)據(jù)集中隨機(jī)抽取一個(gè)樣本作為初始聚類中心u1。

(2)計(jì)算數(shù)據(jù)X每個(gè)樣本x1與最近聚類中心距離D(xi)。

D(xi)=argmin|xi-ur|2,

(3)

式中,r=1, 2,…,kselected。

(4)重復(fù)步驟(2)、(3)步直至選出k個(gè)聚類中心。

依據(jù)聚類中心得到9個(gè)先驗(yàn)框后,其中較大的52×52特征提取卷積層上采用較小的3個(gè)先驗(yàn)框,有最大的感受野,中等的26×26特征提取卷積層上采用中等的3個(gè)先驗(yàn)框,較小的13×13特征提取卷積層上采用較大的3個(gè)先驗(yàn)框,有最小的感受野,并使用logistic回歸函數(shù)對不同尺度上的每個(gè)先驗(yàn)框進(jìn)行置信度回歸,并預(yù)測出物體邊框值,根據(jù)置信度選出最合適的目標(biāo)類別區(qū)域。logistic回歸函數(shù)預(yù)測公式為:

(4)

式中,cx,cy為網(wǎng)格的坐標(biāo)偏移量;pw,ph為先驗(yàn)框長寬的邊長;tx,ty,tw,th為深度網(wǎng)絡(luò)學(xué)習(xí)的目標(biāo)值;bx,by,bw,bh為最終通過公式計(jì)算得到的預(yù)測邊框的坐標(biāo)值。

3 車輛跟蹤

在車輛行駛道路中由于攝像頭采集的前方路況信息會(huì)因其他車輛、物體的干擾遮擋和角度、光照、天氣等因素的影響而發(fā)生變化,從而導(dǎo)致深度學(xué)習(xí)檢測算法出現(xiàn)檢測不連續(xù)、漏檢的情況,繼而影響后續(xù)車輛測距,本研究對檢測到的車輛運(yùn)動(dòng)進(jìn)行跟蹤處理。為解決遮擋、光照變化可能導(dǎo)致的跟蹤失蹤問題,提高多目標(biāo)跟蹤的準(zhǔn)確率,在采用卡爾曼濾波跟蹤框架的基礎(chǔ)上,考慮到同時(shí)跟蹤多個(gè)車輛目標(biāo)、多個(gè)目標(biāo)在圖像上的坐標(biāo)位置靠近,加入匈牙利算法進(jìn)行目標(biāo)關(guān)聯(lián),能實(shí)現(xiàn)對多個(gè)目標(biāo)的精確定位與跟蹤。跟蹤算法具體流程如下:

(1)卡爾曼預(yù)測,即卡爾曼濾波算法根據(jù)上一時(shí)刻檢測出的車輛坐標(biāo)位置預(yù)測出目標(biāo)在本時(shí)刻的坐標(biāo)位置。首先根據(jù)深度學(xué)習(xí)檢測算法檢得到的車輛框坐標(biāo)計(jì)算出被檢測物體質(zhì)心坐標(biāo)(x,y),將此坐標(biāo)表示為目標(biāo)當(dāng)前狀態(tài)Xt|t,Xt-1|t-1為上一時(shí)刻目標(biāo)狀態(tài),Xt|t-1為上一時(shí)刻預(yù)測出當(dāng)前時(shí)刻的目標(biāo)狀態(tài),觀測狀態(tài)Zt為實(shí)際檢測到的物體質(zhì)心坐標(biāo),Pt|t為當(dāng)前時(shí)刻估計(jì)誤差協(xié)方差,Pt-1|t-1為上一時(shí)刻估計(jì)誤差協(xié)方差,Pt|t-1標(biāo)識(shí)上一時(shí)刻預(yù)測出當(dāng)前時(shí)刻的估計(jì)誤差協(xié)方差。A為狀態(tài)轉(zhuǎn)移矩陣,H為觀測矩陣,Kt為卡爾曼濾波的增益矩陣,Wt-1|t-1為上一時(shí)刻的激勵(lì)噪聲,Q、R分別為激勵(lì)噪聲和觀測噪聲的協(xié)方差矩陣??柭鼮V波跟蹤具體公式為:

Xt|t-1=AXt-1|t-1+Wt-1|t-1,

(5)

Pt|t-1=APt-1|t-1AT+Wt-1|t-1,

(6)

Xt|t=Xt|t-1+Kt(Zt-Xt-1|t-1),

(7)

Pt|t=Pt|t-1-KtHPt|t-1,

(8)

Kt=Pt|t-1HT(HPt|t-1HT+R)-1。

(9)

利用公式(5),(6)來預(yù)測上一時(shí)刻檢測到的車輛在當(dāng)前時(shí)刻的位置,利用公式(7),(8),(9)來跟新卡爾曼濾波器狀態(tài)。

圖4 實(shí)車檢測結(jié)果對比Fig.4 Comparison of real vehicle detection results

(2)匈牙利最優(yōu)匹配算法,進(jìn)行關(guān)聯(lián)匹配時(shí),采用計(jì)算兩不同集合坐標(biāo)的歐幾里得距離作為費(fèi)用矩陣,再采用匈牙利算法進(jìn)行特征關(guān)聯(lián),即為求解不同上一時(shí)刻預(yù)測質(zhì)心坐標(biāo)與本時(shí)刻檢測坐標(biāo)的歐幾里得距離的最小值dmin,對上一時(shí)刻預(yù)測坐標(biāo)和本時(shí)刻檢測坐標(biāo)進(jìn)行指派關(guān)聯(lián)。歐式距離計(jì)算具體公式為:

(10)

當(dāng)本時(shí)刻的檢測值未被分配到任何上一時(shí)刻預(yù)測值時(shí),即上一時(shí)刻預(yù)測坐標(biāo)數(shù)量小于本時(shí)刻檢測坐標(biāo)數(shù)量時(shí),則將此檢測值作為新目標(biāo)進(jìn)行跟蹤。具體公式如下:

nt-1

(11)

式中,t-1時(shí)刻的預(yù)測坐標(biāo)數(shù)量為nt-1,t時(shí)刻的實(shí)際檢測坐標(biāo)數(shù)量為nt。

在實(shí)際跟蹤情況中,考慮到漏檢、跟蹤失效的情況,當(dāng)計(jì)算的歐幾里得距離超過設(shè)置的閾值時(shí)或者多幀未成功檢測到該車輛物體,則判定為跟蹤丟失。具體公式如下:

f>fmax∨d>dmax,

(12)

式中,f為未連續(xù)檢測到目標(biāo)幀數(shù);fmax為目標(biāo)最大丟失幀數(shù);d為歐幾里得距離;dmax為最大距離閾值。

4 試驗(yàn)設(shè)計(jì)與驗(yàn)證

算法基于python編譯環(huán)境完成程序設(shè)計(jì),運(yùn)行環(huán)境為CPU:i5-8500,GPU:NVIDIA GTX 2080,8G內(nèi)存。本研究試驗(yàn)分為檢測算法試驗(yàn)與跟蹤算法試驗(yàn)。

4.1 檢測算法試驗(yàn)

在自采集道路行車視頻以及公開的數(shù)據(jù)集KITTI上評(píng)估改進(jìn)YOLOv3方法的性能。為驗(yàn)證實(shí)際檢測效果,以某標(biāo)志408車型在武漢多段道路采集的視頻對改進(jìn)的小型化網(wǎng)絡(luò)檢測算法進(jìn)行驗(yàn)證。圖4為不同環(huán)境下檢測結(jié)果。

圖4中目標(biāo)車輛上方顯示的為目標(biāo)類別及置信度。可以看出,小型化改進(jìn)的YOLOv3檢測模型檢測精度與原始YOLOv3算法相當(dāng),能檢測較遠(yuǎn)目標(biāo);在某些情況下優(yōu)于原YOLOv3算法,能檢測原YOLOv3算法未檢出車輛,且檢測出的目標(biāo)車輛置信度均高于原始算法。這說明小型化改進(jìn)的YOLOv3算法在檢測精度控制上是有效的。

為進(jìn)一步準(zhǔn)確驗(yàn)證小型化改進(jìn)YOLOv3算法的先進(jìn)性及性能,在公開數(shù)據(jù)集KITTI上進(jìn)行評(píng)估驗(yàn)證。KITTI包含市區(qū)、鄉(xiāng)村和高速公路等場景采集的真使數(shù)據(jù),是目前國際上最大的自動(dòng)駕駛場景下的計(jì)算機(jī)視覺算法評(píng)測數(shù)據(jù)集[27]。對KITTI數(shù)據(jù)集原有的標(biāo)簽信息進(jìn)行整理,將KITTI的標(biāo)注格式轉(zhuǎn)為便于改進(jìn)YOLOv3算法訓(xùn)練的VOC格式,選取該數(shù)據(jù)集7 481張圖像中的Car,Van,Truck和Tram4類車輛標(biāo)簽圖片進(jìn)行保留并合并為Car類標(biāo)簽共4 980 張圖像,并把此數(shù)據(jù)集按照0.9,0.09,0.01的比例分為3部分如表1所示:訓(xùn)練數(shù)據(jù)集4 482張,測試數(shù)據(jù)集448張,驗(yàn)證數(shù)據(jù)集50張。

表1 數(shù)據(jù)樣本數(shù)量Tab.1 Number of data samples

對小型化YOLOv3算法進(jìn)行58 000次訓(xùn)練迭代,動(dòng)量為0.9,權(quán)重衰減為0.000 5,初始學(xué)習(xí)率為0.001,學(xué)習(xí)率后期隨訓(xùn)練次數(shù)而減小。K-means++算法在處理后的KITTI數(shù)據(jù)集上的聚類中心為:(28,21),(40,31),(55,45),(68,31),(80,62),(103,44),(137,73),(194,116),(311,180)。檢測結(jié)果如圖5所示。

圖5 在KITTI測試集不同場景上的檢測結(jié)果Fig.5 Detection result in different scenarios of KITTI test set

圖5為不同交通環(huán)境下的檢測結(jié)果。圖5(a)為道路有較多車輛及車輛遮擋場景的城市道路,此場景車輛種類數(shù)量多,干擾因素復(fù)雜,車輛距離涵蓋中近距離;圖5(b)為車輛距離較遠(yuǎn)的高速道路場景,此場景車輛車速較快,車距較遠(yuǎn),車輛距離涵蓋中遠(yuǎn)距離;圖5(c)為鄉(xiāng)村公路場景,此場景樹木較多,受光照影響強(qiáng)烈,圖像某一區(qū)域會(huì)過亮或過暗;圖5(d)為道路情況復(fù)雜的十字路口,含有較多指示桿,含有4個(gè)行駛方向車輛??梢钥闯鲂⌒突痀OLOv3算法能準(zhǔn)確識(shí)別遠(yuǎn)中近距離、遮擋、光照變化強(qiáng)烈、種類數(shù)量多等路況復(fù)雜場景下的車輛,有較高的檢測精度。

為準(zhǔn)確評(píng)價(jià)此小型化網(wǎng)絡(luò)模型性能、檢測速度以及小型化效果,采用繪制此模型在KITTI測試集上的精確率-召回率曲線(Precision Recall,PR)曲線,計(jì)算平均準(zhǔn)確率(Average Precision,AP)進(jìn)行評(píng)價(jià)。PR曲線能同時(shí)包含待檢測車輛的精確率與召回率兩個(gè)指標(biāo),而AP則是一個(gè)能反映全局檢測模型性能的指標(biāo),通過計(jì)算PR曲線的包含面積得到AP,其中交并比iou值設(shè)為0.45。AP具體計(jì)算公式為:

(13)

(14)

圖6 PR曲線圖Fig.6 PR curve

圖6為在KITTI測試集上的PR曲線圖。通過計(jì)算如圖6的PR曲線可得到此改進(jìn)模型對車輛檢測的AP為91.52%。為說明本研究檢測算法的先進(jìn)性,與其他算法進(jìn)行對比,這些算法均使用KITTI數(shù)據(jù)集進(jìn)行檢測[28]。算法檢測結(jié)果如表2所示。

表2 不同檢測方法在KITTI數(shù)據(jù)集上的 檢測結(jié)果對比Tab.2 Comparison of detection results of different detection methods on KITTI data set

表2顯示了不同深度學(xué)習(xí)檢測算法在KITTI數(shù)據(jù)集上的檢測結(jié)果。經(jīng)典的基于區(qū)域式神經(jīng)網(wǎng)絡(luò)Faster R-CNN取得了62.73%的檢測AP,F(xiàn)aster R-CNN取得了76.90%的檢測AP,同時(shí)因基于區(qū)域式檢測框架將物體識(shí)別和定位分為兩個(gè)步驟完成,導(dǎo)致網(wǎng)絡(luò)模型較大,檢測速度極慢,不具有實(shí)時(shí)檢測能力。經(jīng)典的基于回歸式神經(jīng)網(wǎng)絡(luò)SSD300,YOLO,YOLOv2,YOLOv3分別取得了81.00%,58.54%,69.48%,91.58%的檢測AP,因?yàn)閷⑽矬w識(shí)別和定位放在一個(gè)步驟中完成,檢測速度較快。雖然 YOLOv2有較快的檢測速度達(dá)到每秒114.26幀,但是只有69.47%的AP,檢測效果較差;YOLOv3的檢測精度高,為該YOLO系列最先進(jìn)算法,有91.52%的AP,但是相應(yīng)檢測速度較低。小型化YOLOv3相較于上述算法,因仍有多層殘差網(wǎng)絡(luò)以及多尺度檢測,擁有較高的檢測精度,達(dá)到91.52%,基本與YOLOv3持平。同時(shí)因精簡了網(wǎng)絡(luò)結(jié)構(gòu),減少了網(wǎng)絡(luò)參數(shù),生成網(wǎng)絡(luò)大小從236 MB減小為57.2 MB,為原來1/4,檢測速度大大加快,達(dá)到每秒101.70幀,檢測速度為YOLOv3的兩倍以上??梢钥闯觯倪M(jìn)模型檢測速度有明顯提升,證明改進(jìn)的小型化網(wǎng)絡(luò)結(jié)構(gòu)是有效的,同時(shí)也達(dá)到了較高的檢測精度,本研究所提算法有較強(qiáng)先進(jìn)性。

4.2 跟蹤算法試驗(yàn)

為驗(yàn)證卡爾曼濾波和匈牙利匹配的多目標(biāo)跟蹤算法的有效性,同以某標(biāo)志408車型在武漢市區(qū)道路拍攝的視頻注入跟蹤算法進(jìn)行驗(yàn)證,視頻幀率為每秒30.00幀。跟蹤算法中按經(jīng)驗(yàn)設(shè)置參數(shù)最優(yōu)值fmax=8,dmax=30。目標(biāo)出現(xiàn)遮擋無法穩(wěn)定檢測情況下,實(shí)際多目標(biāo)跟蹤效果如圖7、圖8所示。

圖8 多目標(biāo)交叉時(shí)的多目標(biāo)跟蹤效果Fig.8 Multi-target tracking effect when multiple targets crossing

圖7為連續(xù)視頻中的3幀圖像,從圖7(a)可以看出,第33幀時(shí),3臺(tái)車輛同時(shí)被準(zhǔn)確檢測,并被賦予物體標(biāo)簽ID,在7圖(b)第34幀時(shí),右側(cè)欄桿后的車輛因受欄桿遮擋,無法被穩(wěn)定連續(xù)檢測,但此時(shí)物體標(biāo)簽仍然保留,并繼續(xù)預(yù)測跟蹤,直至如圖7(c)第37幀所示時(shí),右側(cè)車輛被重新檢測,而此時(shí),右側(cè)車輛的物體標(biāo)簽仍然不變。表明本研究跟蹤算法能準(zhǔn)確跟蹤多目標(biāo),具有一定的抗遮擋能力,能改善檢測算法不穩(wěn)定的情況。圖8為在連續(xù)視頻中取相同幀間隔截取3張圖像,車輛出現(xiàn)相互交叉遮擋,車輛檢測算法正確檢測,并為目標(biāo)車輛分配ID值,從圖8中可以看出,連續(xù)視頻幀中目標(biāo)ID值并未改變,說明本跟蹤算法在目標(biāo)之間交叉干擾的情況下仍能準(zhǔn)確跟蹤多目標(biāo)。

為準(zhǔn)確評(píng)價(jià)檢測跟蹤整體算法的檢測精度,借鑒論文[9]的方法,采用檢測率DR和誤檢率FPR來進(jìn)行評(píng)價(jià),檢測率的公式計(jì)算如下:

(15)

(16)

式中,TP為被正確檢測出的車輛數(shù)量;FN為漏檢的車輛數(shù)量;FP為錯(cuò)誤檢測成車輛的數(shù)量。

選取實(shí)車視頻采集的圖片進(jìn)行檢測率與誤檢率計(jì)算,其中普通道路環(huán)境與包含遮擋、陽光陰影等干擾道路環(huán)境的比例為4.67∶1,并與其他檢測算法進(jìn)行比較,結(jié)果如表3所示。

表3 檢測跟蹤算法對比Tab.3 Comparison of detection and tracking algorithms

從表3可以看出,本研究檢測跟蹤算法相比于其他檢測算法保持了較高檢測率,達(dá)到97.50%,依據(jù)參考文獻(xiàn)[15, 29, 30]的標(biāo)準(zhǔn),當(dāng)檢測率達(dá)到95%以上,能滿足實(shí)車對檢測率的要求。同時(shí),檢測速度大幅縮短,為11.3 ms/幀,遠(yuǎn)低于其他檢測算法,并小于采集每秒30幀視頻幀率每一幀間隔時(shí)間33 ms,滿足實(shí)時(shí)性的要求。當(dāng)本車行駛速速度為60 km/h時(shí),車輛每行駛0.19 m更新一次前方車輛檢測信息;當(dāng)本車行駛速度為120 km/h時(shí),每0.38 m 更新一次。

5 結(jié)論

基于小型化YOLOv3深度學(xué)習(xí)網(wǎng)絡(luò)的實(shí)時(shí)車輛檢測算法,在保證提取多層特征的前提下,采用K-means++算法聚類提取先驗(yàn)框,通過減小殘差網(wǎng)絡(luò)層數(shù)、網(wǎng)絡(luò)深度,改變基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),達(dá)到減少網(wǎng)絡(luò)參數(shù)數(shù)量、模型小型化的目的,能加快網(wǎng)絡(luò)訓(xùn)練、正向推理速度,使深度網(wǎng)絡(luò)能快速檢測車輛位置。試驗(yàn)表明,在復(fù)雜道路環(huán)境中有較強(qiáng)的魯棒性,檢測速度為每秒101.7幀,計(jì)算平均準(zhǔn)確率AP為91.52,高于其他深度學(xué)習(xí)算法,相比與YOLOv3,在精度損失0.06%下,檢測速度提高一倍以上,且網(wǎng)絡(luò)生成模型大小為原來1/4。然后采用卡爾曼濾波進(jìn)行車輛目標(biāo)跟蹤,并利用匈牙利算法進(jìn)行數(shù)據(jù)關(guān)聯(lián)。跟蹤算法能確定被檢測目標(biāo)唯一標(biāo)簽ID,能較好實(shí)現(xiàn)多目標(biāo)穩(wěn)定跟蹤,可改善檢測不穩(wěn)定的情況。檢測跟蹤整體算法的檢測率達(dá)到97.50%,并且檢測速度大幅減小,為11.3 ms/幀。小型化網(wǎng)絡(luò)檢測跟蹤算法可以滿足實(shí)際智能駕駛過程中的車輛檢測及跟蹤需求。

在后續(xù)的研究中,將考慮側(cè)后方車輛檢測,彎道測距需求,并將人-車-路環(huán)境考慮其中,進(jìn)行碰撞預(yù)警模型的搭建與研究,并形成一個(gè)考慮檢測幀率、AP、生成網(wǎng)絡(luò)大小3個(gè)參數(shù)的檢測算法總合評(píng)價(jià)指標(biāo)。

猜你喜歡
小型化特征提取殘差
基于雙向GRU與殘差擬合的車輛跟馳建模
基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
平穩(wěn)自相關(guān)過程的殘差累積和控制圖
河南科技(2015年8期)2015-03-11 16:23:52
基于MED和循環(huán)域解調(diào)的多故障特征提取
家庭規(guī)模小型化提前到來
未來汽油機(jī)的小型化
Fiat公司極度小型化的2缸汽油機(jī)
舞钢市| 新泰市| 土默特左旗| 宁强县| 临猗县| 冀州市| 民乐县| 古浪县| 渑池县| 沧州市| 安陆市| 肇州县| 都江堰市| 北安市| 蓬莱市| 长阳| 龙口市| 宁乡县| 历史| 彰武县| 安龙县| 理塘县| 南华县| 迁安市| 五原县| 察雅县| 双牌县| 莱州市| 昆山市| 临江市| 尼木县| 宝山区| 腾冲县| 佳木斯市| 兰州市| 常熟市| 合江县| 新巴尔虎左旗| 宜川县| 汉沽区| 运城市|