国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的交通監(jiān)控視頻車(chē)輛檢測(cè)算法

2020-09-09 03:09:08毛其超賈瑞生左羚群
關(guān)鍵詞:準(zhǔn)確率卷積車(chē)輛

毛其超 賈瑞生 左羚群 齊 榕

(山東科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 山東 青島 266590)(山東科技大學(xué)山東省智慧礦山信息技術(shù)省級(jí)重點(diǎn)實(shí)驗(yàn)室 山東 青島 266590)

0 引 言

近年來(lái),智能交通系統(tǒng)(ITS)在我國(guó)已經(jīng)廣泛投入使用,而其中最基礎(chǔ)的便是交通監(jiān)控視頻中的車(chē)輛檢測(cè)技術(shù),只有在車(chē)輛檢測(cè)達(dá)到較高的精度時(shí),才能進(jìn)行車(chē)型識(shí)別、車(chē)輛定位、駕駛員疲勞檢測(cè)、車(chē)流量統(tǒng)計(jì)等后續(xù)工作。車(chē)輛檢測(cè)算法屬于目標(biāo)檢測(cè)算法的分支,主要分為兩大類(lèi):傳統(tǒng)車(chē)輛檢測(cè)算法與基于深度學(xué)習(xí)的車(chē)輛檢測(cè)算法。對(duì)于傳統(tǒng)車(chē)輛檢測(cè)算法,其步驟一般可概括為三步:① 人為選擇候選區(qū)域;② 對(duì)候選區(qū)域進(jìn)行特征提取;③ 用分類(lèi)器判斷是否為汽車(chē)。2005年,Dalal等[1]在對(duì)候選區(qū)域進(jìn)行提取時(shí)選擇方向梯度直方圖(Histogram of Gradient,HOG)算法,并選擇線性支持向量機(jī)(Support Vector Machine,SVM)作為最終的分類(lèi)器來(lái)進(jìn)行檢測(cè)。Felzenszwalb等[2]在2008年提出的基于變形組件模型(Deformable Part Model,DPM)的車(chē)輛檢測(cè)算法。傳統(tǒng)算法的優(yōu)勢(shì)在于速度較快,但是檢測(cè)精度堪憂,尤其是在交通監(jiān)控視頻的復(fù)雜場(chǎng)景下,如:夜間的低照度、惡劣天氣的能見(jiàn)度低都會(huì)嚴(yán)重影響視頻質(zhì)量。

最近,深度學(xué)習(xí)理論日益發(fā)展,已在圖像檢測(cè)識(shí)別、文字檢測(cè)識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域取得卓越成績(jī)[4-6]。文獻(xiàn)[7]奠定了基于深度學(xué)習(xí)檢測(cè)任務(wù)的基礎(chǔ)。2014年,Girshick等[8]首次將卷積神經(jīng)網(wǎng)絡(luò)引進(jìn)目標(biāo)檢測(cè)任務(wù),采用(Selective Search,SS)方法[9]進(jìn)行選擇候選區(qū)域,然后利用CNN對(duì)其進(jìn)行特征提取,將分類(lèi)器接在卷積特征圖上進(jìn)行檢測(cè),最后回歸調(diào)整檢測(cè)框的最終位置。該算法在PASCAL VOC2012測(cè)試集上的平均準(zhǔn)確率(Mean Average Precision, mAP)相較于傳統(tǒng)算法提高了30%。2015年,He等[10]提出了SPP net,該網(wǎng)絡(luò)利用空間金字塔池化層,降低了卷積神經(jīng)網(wǎng)絡(luò)對(duì)尺寸的限制。Girshick[11]又基于SPP net中金字塔池化的思路,提出了Fast-RCNN,該網(wǎng)絡(luò)利用一種ROI池化解決了不同大小的候選框無(wú)法等長(zhǎng)輸入檢測(cè)網(wǎng)絡(luò)的問(wèn)題,并將候選區(qū)域在Feature map上標(biāo)示出來(lái),只需要對(duì)圖像進(jìn)行一次特征提取,大大加快了網(wǎng)絡(luò)的運(yùn)行速度。Ren等[12]提出了Faster R-CNN算法,該算法利用RPN網(wǎng)絡(luò)進(jìn)行選擇候選區(qū)域,進(jìn)一步降低了網(wǎng)絡(luò)的運(yùn)行速度,并提高了檢測(cè)精度。但將Faster R-CNN應(yīng)用于監(jiān)控視頻下車(chē)輛檢測(cè)時(shí),監(jiān)控視頻下多為高分辨率圖像,提取特征相對(duì)較難,且當(dāng)圖像中存在車(chē)輛重疊的情況時(shí),該網(wǎng)絡(luò)易造成漏檢。

針對(duì)以上問(wèn)題,本文對(duì)Faster R-CNN網(wǎng)絡(luò)模型進(jìn)行改進(jìn),利用殘差網(wǎng)絡(luò)[13]技術(shù)重新設(shè)計(jì)車(chē)輛特征提取網(wǎng)絡(luò),并在之后接入空洞卷積[14],在篩選候選框的過(guò)程中,對(duì)非極大值抑制(Non-Maximum Suppression,NMS)[15]進(jìn)行改進(jìn),克服了高分辨率圖像難以提取特征的問(wèn)題,并且在車(chē)輛重疊的情況下降低了漏檢率,提高了車(chē)輛檢測(cè)的準(zhǔn)確性。

1 相關(guān)理論基礎(chǔ)

Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,可分為四部分:特征提取層,候選區(qū)域推薦網(wǎng)絡(luò)(Region Proposal Network, RPN),ROI池化和檢測(cè)網(wǎng)絡(luò)。為了提取輸入圖像的特征,特征提取層是由多組連續(xù)的卷積層、池化層、非線性化構(gòu)成。候選區(qū)域推薦網(wǎng)絡(luò)利用一個(gè)N×N的滑動(dòng)窗口在特征圖上滑動(dòng),并且利用Anchor機(jī)制生成初始候選區(qū)域。ROI池化層將大小不同的候選區(qū)域轉(zhuǎn)換成長(zhǎng)度相同的特征向量送入檢測(cè)網(wǎng)絡(luò)以回歸目標(biāo)檢測(cè)框并輸出檢測(cè)結(jié)果。

將Faster R-CNN應(yīng)用到監(jiān)控視頻下車(chē)輛檢測(cè)時(shí),檢測(cè)效果相較PASCAL VOC 2012還有一定差距。造成這一現(xiàn)象的原因有以下兩點(diǎn):

1) 高分辨率圖像造成特征信息冗余。

2) 車(chē)輛存在大部分重疊時(shí)使用非極大值抑制NMS使檢測(cè)框丟失。

2 算法設(shè)計(jì)

2.1 車(chē)輛檢測(cè)模型

本文以深度學(xué)習(xí)方法解決監(jiān)控視頻下車(chē)輛檢測(cè)問(wèn)題,車(chē)輛檢測(cè)流程分為訓(xùn)練和檢測(cè)兩個(gè)階段。在訓(xùn)練階段,首先提取訓(xùn)練樣本集,根據(jù)PASCAL VOC數(shù)據(jù)集格式制作樣本訓(xùn)練集,然后將樣本訓(xùn)練集輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,經(jīng)過(guò)多次迭代后得到訓(xùn)練完畢的車(chē)輛檢測(cè)網(wǎng)絡(luò);在檢測(cè)階段,將圖像直接輸入到訓(xùn)練完畢的神經(jīng)網(wǎng)絡(luò),得到車(chē)輛外圍框的具體位置并在原圖上標(biāo)示出來(lái),最后輸出車(chē)輛檢測(cè)結(jié)果。具體流程如圖2所示。

圖2 改進(jìn)后的Faster R-CNN車(chē)輛檢測(cè)算法流程

在交通監(jiān)控視頻中高分辨率圖像容易造成特征信息冗余并且存在車(chē)輛大部分重疊時(shí)使用非極大值抑制NMS易使檢測(cè)框丟失。針對(duì)以上兩個(gè)問(wèn)題,我們對(duì)網(wǎng)絡(luò)進(jìn)行改進(jìn):① 采用殘差網(wǎng)絡(luò)[16]技術(shù)對(duì)特征提取層進(jìn)行改進(jìn);② 采用空洞卷積過(guò)濾冗余特征;③ 使用Soft-NMS篩選候選框。其神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3 神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖

本文神經(jīng)網(wǎng)絡(luò)模型分為特征提取網(wǎng)絡(luò)、候選區(qū)域生成網(wǎng)絡(luò)、候選區(qū)域篩選網(wǎng)絡(luò)、檢測(cè)網(wǎng)絡(luò)四個(gè)部分。

1) 特征提取網(wǎng)絡(luò):對(duì)輸入圖片進(jìn)行特征提取,生成特征圖。具體網(wǎng)絡(luò)如表1所示。

表1 網(wǎng)絡(luò)結(jié)構(gòu)表

2) 候選區(qū)域生成網(wǎng)絡(luò):使用膨脹系數(shù)r=2的3×3的空洞卷積過(guò)濾冗余特征,并在其中加入Anchor機(jī)制生成初始候選區(qū)域??斩淳矸e本質(zhì)上是對(duì)一般卷積運(yùn)算的擴(kuò)展,空洞卷積的輸出y[i]可以表示為:

(1)

式中:x[·]表示一維輸入信號(hào);ω[l]為卷積核;l為卷積核大小;r為膨脹系數(shù),表示能將卷積核擴(kuò)張到膨脹系數(shù)所約束的尺度中,并將原卷積核中未被占用的區(qū)域填充0。圖4為二維空洞卷積示意圖,空洞卷積使卷積核的作用范圍擴(kuò)大,得到的有效卷積核高為fh+(fh-1)·(r-1),寬為fw+(fw-1)·(r-1) ,其中:fh代表原始卷積的高;fw代表原始卷積核的寬。而使用空洞卷積可以在增大感受野的同時(shí)保持特征圖尺寸,靈活地添加空洞卷積可以在感受野不變的條件下過(guò)濾掉冗余特征,因此空洞卷積在監(jiān)控視頻下車(chē)輛檢測(cè)中有較優(yōu)秀的性能。

圖4 不同膨脹系數(shù)下的空洞卷積示意圖

3) 候選區(qū)域篩選網(wǎng)絡(luò):對(duì)初始候選區(qū)域使用Soft-NMS(Soft Non-Maximum Suppression)進(jìn)行粗篩,相較于NMS,Soft-NMS是一種比較柔和的對(duì)候選框的篩選準(zhǔn)則,如算法1所示。

算法1Soft-NMS

輸入:初始候選區(qū)域集合B={b1,b2,…,bN},對(duì)應(yīng)的置信度S={s1,s2,…,sN}。

輸出:篩選后的區(qū)域集合D={d1,d2,…,dN},對(duì)應(yīng)的置信度S={s1,s2,…,sN}。

1.D←{}

2. whileB≠empty do

3.m← argmaxS

4.M←bm

5.D←D∪M;B←B-M

6. forbiinBdo

7.si←si·f(IOU(M,bi))

8. end

9. end

10. returnD,S

其中:f(IOU(M,bi))定義為:

(2)

Si表示當(dāng)前框的得分;M為當(dāng)前得分最高框;bi為待處理框;Nt為設(shè)定閾值??梢钥闯?,bi和M的IOU越大,bi的得分si就下降得越厲害(而不是直接置零),算法變得柔和并且解決了兩物體重疊導(dǎo)致漏檢率升高的問(wèn)題。

4) 檢測(cè)網(wǎng)絡(luò):對(duì)候選區(qū)域進(jìn)行ROI池化,實(shí)現(xiàn)固定長(zhǎng)度并輸出至全連接層,然后再次接Soft-NMS對(duì)車(chē)輛檢測(cè)框進(jìn)行精篩,最后輸出車(chē)輛檢測(cè)結(jié)果。

2.2 損失函數(shù)

為了訓(xùn)練神經(jīng)網(wǎng)絡(luò),我們定義了一個(gè)多任務(wù)損失函數(shù):

(3)

(4)

(5)

(6)

式中:(x,y)、(xj,yj)、(x*,y*)分別表示預(yù)測(cè)區(qū)域、候選區(qū)域、真實(shí)區(qū)域中心點(diǎn)坐標(biāo); (w,h)、(wj,hj)、(w*,h*)分別表示預(yù)測(cè)區(qū)域、候選區(qū)域、真實(shí)區(qū)域的寬和高。

2.3 算法流程

本文車(chē)輛檢測(cè)算法分為訓(xùn)練和檢測(cè)兩個(gè)階段,其主要步驟如下:

(1) 訓(xùn)練:

Step1抽幀截取監(jiān)控視頻,人工篩選剔除相似圖片,得到圖片集合R={R1,R2,…,Rn}。

Step3初始化特征提取網(wǎng)絡(luò),將樣本集RL輸入該網(wǎng)絡(luò)。則單幅圖片Ri ∈{1,2,…,n}在區(qū)域生成網(wǎng)絡(luò)中利用Anchor機(jī)制則可得到若干初始推薦區(qū)域A={A1,A2,…,An}。

Step4若初始推薦區(qū)域Ai∈{1,2,…,n}與已標(biāo)注的車(chē)輛真實(shí)邊界的IoU為O,當(dāng)O=Omax或者O≥0.6時(shí),該初始推薦區(qū)域?yàn)檎龢颖?,?dāng)O<0.3時(shí),該初始推薦區(qū)域?yàn)樨?fù)樣本,故可得到大量訓(xùn)練樣本集合S={S+,S-},其中:S+為正樣本;S-為負(fù)樣本。

Step5利用正負(fù)訓(xùn)練樣本S結(jié)合式(5)多任務(wù)損失函數(shù),按照梯度方向進(jìn)行反向傳播,學(xué)習(xí)修改網(wǎng)絡(luò)參數(shù),直到訓(xùn)練完畢,得到訓(xùn)練完畢的網(wǎng)絡(luò)參數(shù)M。

(2) 檢測(cè):

Step1抽幀截取檢測(cè)視頻,得到輸入圖像P(x,y),然后將其輸入訓(xùn)練完畢的車(chē)輛檢測(cè)網(wǎng)絡(luò)。

Step2首先在卷積層對(duì)圖像P(x,y)進(jìn)行特征提取,得到卷積特征圖,然后輸入至候選區(qū)域生成網(wǎng)絡(luò),生成候選區(qū)域集合Bi∈{1,2,…,n}。

Step5用X、Y、W、H在輸入圖像P(x,y)上標(biāo)定出車(chē)輛檢測(cè)框,輸出車(chē)輛檢測(cè)結(jié)果。

3 實(shí) 驗(yàn)

3.1 數(shù)據(jù)集

(1) Car_VOC:我們從道路監(jiān)控視頻中選取不同時(shí)間段、不同地點(diǎn)、不同天氣下的視頻片段,對(duì)其進(jìn)行抽幀截取,得到大小為2 592×2 048像素的高分辨率圖像,經(jīng)過(guò)手工篩選過(guò)濾掉相似的樣本圖片,對(duì)樣本圖片進(jìn)行水平翻轉(zhuǎn),得到數(shù)據(jù)集總計(jì)圖像1 710幅,部分樣本如圖5所示。將數(shù)據(jù)集用labelImg進(jìn)行手工標(biāo)注,并且按照Pascal VOC[15]數(shù)據(jù)樣本格式重新編號(hào),制作數(shù)據(jù)集Car_VOC,根據(jù)4∶1∶1的比例隨機(jī)劃分訓(xùn)練集、驗(yàn)證集、測(cè)試集,且互無(wú)交集,共計(jì)標(biāo)注車(chē)輛4 572輛。

圖5 部分Car_VOC數(shù)據(jù)集樣例

(2) KITTI[17]: KITTI數(shù)據(jù)集是在中等城市卡爾斯魯厄(Karlsruhe)農(nóng)村地區(qū)和高速公路周?chē){駛而拍攝的,數(shù)據(jù)集中單幅圖像的特點(diǎn)與監(jiān)控視頻下視頻圖像有著很高的相似度。部分?jǐn)?shù)據(jù)集樣例如圖6所示。

圖6 部分KIYTTI數(shù)據(jù)集樣例

(3) UA-DETRAC[18]: 該數(shù)據(jù)集是在中國(guó)北京和天津的24個(gè)不同地點(diǎn)使用Cannon EOS 550D相機(jī)拍攝的10小時(shí)視頻。 視頻以每秒25幀的速度錄制,分辨率為960×540像素。UA-DETRAC數(shù)據(jù)集中有超過(guò)14萬(wàn)個(gè)幀,手動(dòng)注釋了8 250輛車(chē)輛。部分?jǐn)?shù)據(jù)集樣例如圖7所示。

圖7 部分UA-DETRAC數(shù)據(jù)集樣例

3.2 實(shí)驗(yàn)及結(jié)果分析

(1) 在Car_VOC數(shù)據(jù)集上的實(shí)驗(yàn):

為了驗(yàn)證本文算法的有效性,實(shí)驗(yàn)一選擇Faster R-CNN車(chē)輛檢測(cè)算法作為參照,對(duì)比本文模型的檢測(cè)效果。我們選取平均精度Ap、平均誤檢率Af、平均漏檢率Am作為評(píng)價(jià)指標(biāo),定義如下:

(7)

式中:Tp表示被車(chē)輛檢測(cè)算法檢測(cè)出的正確的車(chē)輛目標(biāo)數(shù)目;Fn表示沒(méi)有被車(chē)輛檢測(cè)算法檢測(cè)出的車(chē)輛目標(biāo)數(shù)目;Fp表示被車(chē)輛檢測(cè)算法誤檢的車(chē)輛目標(biāo)數(shù)目;Tn表示沒(méi)有被車(chē)輛檢測(cè)算法誤檢成車(chē)輛的目標(biāo)數(shù)目。

考慮到白天與夜間檢測(cè)效果會(huì)有所差異,我們分別進(jìn)行了兩組對(duì)比實(shí)驗(yàn)。擁擠的交通存在車(chē)輛相互遮擋的情況,增加了檢測(cè)的難度。我們?cè)趯?duì)比實(shí)驗(yàn)中分別設(shè)置了3個(gè)梯度,分別為:自由流,同步流,阻塞流。定義圖中車(chē)輛數(shù)目為N,當(dāng)N<10時(shí),定義為自由流;當(dāng)10≤N<25,且并不存在明顯車(chē)輛遮擋的情況定義為同步流;只要N≥25,并且不管是否存在車(chē)輛遮擋統(tǒng)一定義為阻塞流。實(shí)驗(yàn)從Car_VOC測(cè)試集中隨機(jī)分別選取80幅圖像對(duì)應(yīng)3個(gè)梯度構(gòu)成本實(shí)驗(yàn)的測(cè)試集。圖8為2種算法在Car_VOC下的部分檢測(cè)結(jié)果。使用2種算法對(duì)測(cè)試集的圖像進(jìn)行檢測(cè),檢測(cè)結(jié)果如表2所示。

圖8 本文算法與Faster R-CNN算法在Car_VOC下的部分檢測(cè)結(jié)果

表2 Faster R-CNN與本文算法在Car_VOC數(shù)據(jù)集下日間夜間三個(gè)不同梯度下的平均準(zhǔn)確率 %

可以看出,本文算法在日間自由流Ap為91.7%,Af為1.4%,Am為4.9%,相比Faster-RCNN提高顯著。2種算法的最佳檢測(cè)效果均出現(xiàn)在日間自由流梯度下,而在夜間阻塞流下,雖然2種算法在此狀態(tài)表現(xiàn)最差,但是本文算法相較于Faster R-CNN其他兩個(gè)狀態(tài)下提升較大,從綜合結(jié)果來(lái)看本文算法在監(jiān)控視頻下車(chē)輛檢測(cè)效果優(yōu)于Faster R-CNN算法。

(2) 在KITTI數(shù)據(jù)集上的實(shí)驗(yàn):

將本文算法與Faster R-CNN、Yolov2[19]、OC-DPM[20]在KITTI數(shù)據(jù)集中進(jìn)行對(duì)比實(shí)驗(yàn),根據(jù)KITTI數(shù)據(jù)集的規(guī)定,有三個(gè)檢測(cè)難度:Easy、Moderate、Hard。圖9為4種算法在KITTI數(shù)據(jù)集3個(gè)不同的檢測(cè)難度測(cè)試中的準(zhǔn)確率與召回率圖。

圖9 4種算法在KITTI數(shù)據(jù)集下3個(gè)不同難度中的檢測(cè)結(jié)果

不難看出,本文算法的準(zhǔn)確率相較于原Faster R-CNN算法在Easy、Moderate、Hard 3個(gè)困難度下檢測(cè)效果均有所提升,并且在準(zhǔn)確率與召回率方面明顯高于OC-DPM算法與Yolov2算法;本文算法相較于其他三種算法與X、Y軸所包圍的面積要大,故算法平均精度(Average Precision,AP)更高。為了更好地對(duì)算法進(jìn)行定量分析,本文計(jì)算所有算法平均準(zhǔn)確率,結(jié)果如表3所示,計(jì)算方法如下:

(8)

式中:Pre為準(zhǔn)確率;Rec為召回率。

表3 4種算法在KITTI數(shù)據(jù)集下3個(gè)不同難度中的平均準(zhǔn)確率 %

由表3數(shù)據(jù)可知,本文算法相較于原Faster R-CNN算法在3個(gè)困難度下的平均準(zhǔn)確率分別提升了1.26%、2.56%、2.50%。KITTI數(shù)據(jù)集是由車(chē)輛攝像頭在道路上的實(shí)拍圖像組成,與監(jiān)控視頻下圖像有很高的相似度,含有較大的信息冗余,利用空洞卷積減少了相鄰冗余像素對(duì)特征的干擾,外加攝像頭位置固定,擁擠的交通會(huì)產(chǎn)生一些重疊樣本,而Soft-NMS較NMS更適合處理重疊樣本。本文算法相較于OC-DPM和Yolov2提升較為明顯,尤其是與Yolov2的一步檢測(cè)相比在3個(gè)困難度下更是有著60.79%、62.36%、56.75%的巨大提升。Yolov2舍棄了候選框生成的過(guò)程,直接采用卷積神經(jīng)網(wǎng)絡(luò)獲得最終結(jié)果,雖然速度得到較大提升,但準(zhǔn)確率卻大大下降。圖10為在KITTI數(shù)據(jù)集上的部分檢測(cè)結(jié)果。

圖10 在KITTI數(shù)據(jù)集上部分檢測(cè)結(jié)果

(3) 在UA-DETRAC數(shù)據(jù)集上的實(shí)驗(yàn):

在UA-DETRAC數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試,并將本文算法與Faster R-CNN算法、DPM算法、R-CNN算法、Yolov2算法、SA-FRCNN算法在其測(cè)試集中進(jìn)行對(duì)比實(shí)驗(yàn)。其中,在UA-DETRAC下,共有8個(gè)檢測(cè)條件:full、easy、medium、hard、cloudy、night、rainy、sunny。圖11為以上算法在UA-DETRAC數(shù)據(jù)集8個(gè)不同的條件下的召回率與準(zhǔn)確率圖,表4為在UA-DETRAC數(shù)據(jù)集下8個(gè)不同條件中的平均準(zhǔn)確率。

表4 6種算法在UA-DETRAC數(shù)據(jù)集下8個(gè)不同條件下的平均準(zhǔn)確率 %

從表4中可以看出,傳統(tǒng)車(chē)輛檢測(cè)算法DPM在復(fù)雜環(huán)境下的檢測(cè)效果表現(xiàn)較差,即使在easy條件下平均準(zhǔn)確率也沒(méi)有達(dá)到35%。從R-CNN開(kāi)始,基于深度學(xué)習(xí)的算法在復(fù)雜環(huán)境下例如在交通視頻下車(chē)輛檢測(cè)平均準(zhǔn)確率相較于傳統(tǒng)算法實(shí)現(xiàn)了質(zhì)的超越,在sunny下平均準(zhǔn)確率可以達(dá)到69.75%。本文算法相較于Faster R-CNN提升較為明顯,在每個(gè)檢測(cè)條件下都有提升。圖12為在UA-DETRAC數(shù)據(jù)集下的部分檢測(cè)結(jié)果。

圖12 在UA-DETRAC數(shù)據(jù)集下的部分檢測(cè)結(jié)果

4 結(jié) 語(yǔ)

本文將Faster R-CNN網(wǎng)絡(luò)引入交通監(jiān)控車(chē)輛目標(biāo)檢測(cè)中,并發(fā)現(xiàn)監(jiān)控視頻中高分辨率圖像造成特征信息冗余和車(chē)輛存在大部分重疊時(shí)使用非極大值抑制使檢測(cè)框丟失是其在交通監(jiān)控視頻下車(chē)輛檢測(cè)方面存在的主要問(wèn)題。本文對(duì)其進(jìn)行改進(jìn),首先在網(wǎng)絡(luò)中加入空洞卷積過(guò)濾掉高分辨率視頻影像下存在的冗余特征,然后用Soft-NMS替換掉原有的NMS機(jī)制以適應(yīng)車(chē)輛重疊的情況,使之更適用于交通監(jiān)控視頻下的車(chē)輛檢測(cè)。在Car_VOC、KITTI、UA-DETRAC數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的模型在不影響檢測(cè)速度的情況下,提高了檢測(cè)的準(zhǔn)確性,尤其是在車(chē)輛產(chǎn)生較大重疊的情況下相較于原模型降低了漏檢率。

猜你喜歡
準(zhǔn)確率卷積車(chē)輛
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
車(chē)輛
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
冬天路滑 遠(yuǎn)離車(chē)輛
車(chē)輛出沒(méi),請(qǐng)注意
昌平区| 康乐县| 壶关县| 海城市| 青浦区| 大连市| 丹寨县| 中山市| 乌审旗| 浦北县| 清流县| 弥渡县| 突泉县| 寿宁县| 宜州市| 白河县| 深州市| 金寨县| 宁波市| 海门市| 九江县| 云梦县| 上杭县| 怀远县| 繁昌县| 河间市| 元江| 恩施市| 伊金霍洛旗| 鄂尔多斯市| 广河县| 商丘市| 隆子县| 依安县| 蓝田县| 尤溪县| 陕西省| 正镶白旗| 禹城市| 乡城县| 金川县|