国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的多車道交通流量統(tǒng)計方法

2021-12-07 12:19李文雄劉藝騰胡晨祎
關(guān)鍵詞:交通流量車道車型

于 強,李文雄,劉藝騰,胡晨祎,張 萌

(1.石家莊鐵道大學(xué) 河北省交通安全與控制重點實驗室,河北 石家莊 050043;2.石家莊鐵道大學(xué) 交通運輸學(xué)院,河北 石家莊 050043)

隨著計算機(jī)圖像處理技術(shù)、計算機(jī)視覺技術(shù)快速發(fā)展,交通正朝著智慧化方向發(fā)展,智慧交通需要對交通實況進(jìn)行全面感知。目前存在龐大的視頻方式的交通數(shù)據(jù),如何從視頻數(shù)據(jù)中獲取服務(wù)于智慧交通的信息,已成為廣受關(guān)注的熱點問題之一。通過交通視頻,采集道路交通流量數(shù)據(jù)是其中較為重要的一項工作。

要實現(xiàn)交通視頻中目標(biāo)路段的交通流量統(tǒng)計,首先需要識別出視頻幀中的車輛。車輛識別方法可以大致分為2類:傳統(tǒng)車輛識別算法和基于深度學(xué)習(xí)的車輛識別算法。傳統(tǒng)車輛識別算法主要包括背景差法、幀差法、光流法等,基于傳統(tǒng)車輛識別算法形成了虛擬檢測線法[1]和虛擬線圈法[2]等交通流量統(tǒng)計的方法,其基本思想為對視頻幀中的像素值及其變化值判定區(qū)域內(nèi)有無車輛通過,該類方法簡單易行,但是無法利用像素值的深度特征,易受到場景中光線變化或其他非交通參與對象的影響,且無法對車型進(jìn)行識別,性能較低,不宜采用[3]。

基于深度學(xué)習(xí)車輛識別算法進(jìn)行交通流量統(tǒng)計的方法稱為目標(biāo)跟蹤法[11],目標(biāo)跟蹤法的基本思路是:首先識別視頻幀中的車輛,然后對識別出的車輛對象進(jìn)行跟蹤,進(jìn)而統(tǒng)計交通流量,該方法克服了虛擬檢測線法和虛擬線圈法的不足,能夠識別車輛的車型,并按車型統(tǒng)計交通流量。因此完成車輛識別之后,還應(yīng)采用準(zhǔn)確高效的目標(biāo)跟蹤方法跟蹤車輛。

目前車輛跟蹤方法大致可分為基于區(qū)域輪廓跟蹤方法、基于運動信息跟蹤方法和基于外觀特征信息跟蹤方法[12]?;趨^(qū)域輪廓跟蹤方法的基本思想為,通過預(yù)設(shè)區(qū)域與目標(biāo)車輛的輪廓形狀,對視頻中的車輛進(jìn)行跟蹤,該方法運算速度較快,但是無法應(yīng)對路段內(nèi)車型多樣化的現(xiàn)狀,存在車輛相互遮擋狀況時效果較差,在多車道多種車輛共同存在的環(huán)境下不宜采用[13]?;谶\動信息跟蹤方法基本思想是,將目標(biāo)物體的運動通過粒子濾波對觀測值進(jìn)行校正,得到該物體的后驗概率預(yù)測,運算速度較快,但是目標(biāo)車輛與其他車輛存在部分或完全遮擋時,會出現(xiàn)目標(biāo)車輛跟丟的狀況,容易產(chǎn)生多檢[13-16]?;谕庥^特征信息跟蹤方法的基本思想為,對目標(biāo)車輛的圖像進(jìn)行特征提取,通過計算前后幀之間車輛的特征向量相似度進(jìn)行車輛跟蹤,對于車輛存在部分遮擋或遮擋后再次出現(xiàn)的狀況也能完成車輛跟蹤,但是相應(yīng)算法的運算速度較慢,并且對于連續(xù)進(jìn)入視頻區(qū)域的同車型、同顏色的不同車輛存在編號重復(fù)的情況,容易造成漏檢[17-19]。

針對基于目標(biāo)跟蹤法的交通流量檢測,仍然普遍存在著不同程度的車輛漏檢、錯檢和多檢的現(xiàn)象,本文提出了一種基于深度學(xué)習(xí)的交通流量統(tǒng)計方法。該方法首先使用深度學(xué)習(xí)的方式進(jìn)行車輛識別,然后對車輛進(jìn)行跟蹤統(tǒng)計,如圖1所示。車輛識別部分,采用了YOLOv4目標(biāo)識別算法,提取視頻中目標(biāo)車輛的位置信息與車型信息;車輛跟蹤部分,結(jié)合目標(biāo)車輛的運動信息、外觀信息和空間位置信息對車輛跟蹤,有效降低了車輛多檢、漏檢的狀況;交通流量統(tǒng)計部分,計算了檢測目標(biāo)車輛的車型眾數(shù),根據(jù)目標(biāo)車型眾數(shù)確定目標(biāo)車輛的車型,防止車型被偶然識別錯誤而產(chǎn)生錯誤的車型統(tǒng)計,提高了車型統(tǒng)計的準(zhǔn)確性。

圖1 整體車輛統(tǒng)計框架結(jié)構(gòu)

1 車輛識別

在車輛識別部分,為了實現(xiàn)更好的檢測性能,選擇了YOLOv4算法,YOLOv4[20]算法是YOLO系列算法的較新版本,該算法模型主要由CSP Darknet-53卷積神經(jīng)網(wǎng)絡(luò)、Mish激活函數(shù)、SPP圖像特征提取網(wǎng)絡(luò)以及PANet特征增強網(wǎng)絡(luò)構(gòu)成,將獲取的19×19×255、38×38×255和76×76×255 3種維度特征向量傳入YOLO head進(jìn)行分類回歸,并以CIOU作為損失函數(shù)。該檢測算法具有識別精度高、速度快的優(yōu)點,目前在車輛識別領(lǐng)域得到了較好的應(yīng)用[21-24]。

2 車輛跟蹤

SORT算法是一種經(jīng)典的用于車輛跟蹤的算法,其核心思想為采用卡爾曼濾波算法進(jìn)行車輛運動位置信息預(yù)測,采用匈牙利算法進(jìn)行車輛匹配,實現(xiàn)車輛跟蹤的目的。由于其僅采用了車輛運動信息,因而會導(dǎo)致車輛跟丟的現(xiàn)象。為克服SORT算法存在的問題,對SORT算法進(jìn)行改進(jìn)。改進(jìn)的SORT算法,首先使用卡爾曼濾波算法[25]對目標(biāo)車輛進(jìn)行運動信息預(yù)測,并使用外觀特征提取網(wǎng)絡(luò)提取目標(biāo)車輛的外觀特征,可以有效避免目標(biāo)車輛在追蹤過程中被部分或完全遮擋后再次出現(xiàn)時會重復(fù)計數(shù)的問題;其次對跟蹤車輛的環(huán)境空間位置進(jìn)行約束,有效防止了視頻區(qū)域內(nèi)連續(xù)出現(xiàn)的同車型、同顏色車輛重復(fù)編號的問題。

2.1 卡爾曼濾波

(1)

例如在教授學(xué)生九年級《出師表》時,我在上課之初,直接問了大家一個問題:“你們怎么看待《三國演義》中諸葛亮這個人物?”有的學(xué)生回答道:“諸葛亮很聰明,很有才華。”還有的學(xué)生說:“諸葛亮機(jī)智無比,雄才偉略?!薄澳俏医o大家講一個和諸葛亮有關(guān)的故事,好嗎?”學(xué)生們聽到這里,開心極了,紛紛聚精會神地看著我,看到這樣的情況,我將板擦兒往桌子上一拍,大聲說道:“話說劉備死后,劉禪登上皇位,當(dāng)時……”在我繪聲繪色的講述中,學(xué)生們的情緒也忽高忽低,上下起伏。隨著時間的流逝,板擦兒再次一響,我結(jié)束了這個故事。看到大家意猶未盡的眼神,我直接打開書,開始為大家講述《出師表》里面的內(nèi)容。

(2)

(3)

式中,h為檢測框高度。

2.2 車輛外觀特征提取

僅使用運動信息進(jìn)行車輛跟蹤時,若目標(biāo)車輛被大型車輛或其他物體長時間部分或完全遮擋,會導(dǎo)致ID-switch現(xiàn)象,即同一車輛因長時間未能匹配,算法會賦予同一目標(biāo)車輛一個新的ID編號,出現(xiàn)ID-switch現(xiàn)象,如圖2所示,可能造成多檢或“車輛跟丟”的情況。

圖2 ID-switch現(xiàn)象

因此,在基于運動信息進(jìn)行車輛跟蹤的基礎(chǔ)上加入外觀信息,即通過神經(jīng)網(wǎng)絡(luò)提取視頻幀中目標(biāo)車輛的外觀信息,得到可代表視頻幀中目標(biāo)車輛的128維特征向量[26]。將提取到的特征向量與歷史幀中目標(biāo)車輛提取的特征向量計算余弦距離,判斷兩特征向量的相似程度,并采用余弦距離作為損失函數(shù),從而確定兩車是否為同一車輛,以減少車輛被長時間遮擋后發(fā)生的ID-switch現(xiàn)象,從而降低了車輛被多檢的可能。

2.3 基于空間位置區(qū)別不同車輛

由于對目標(biāo)車輛進(jìn)行外觀信息匹配時,在算法設(shè)置的時間閾值內(nèi)同車型、同顏色的車輛(不考慮車牌信息)交替駛?cè)胍曇皟?nèi),可能會被跟蹤算法再次賦予相同的ID編號,導(dǎo)致漏檢現(xiàn)象,如圖3所示。

圖3 漏檢現(xiàn)象示意圖

為了防止車輛ID編號的重復(fù)出現(xiàn),在車輛ID編號分配機(jī)制中加入車輛行進(jìn)方向的方向向量的判斷,使得車輛僅能沿車輛行進(jìn)方向獲得編號。在實驗過程中發(fā)現(xiàn),某一車輛即使處于靜止?fàn)顟B(tài),在相鄰兩幀之間由于目標(biāo)車輛的光線角度或其他原因,通過目標(biāo)識別算法可能會形成在相鄰幀之間檢測框抖動現(xiàn)象,產(chǎn)生車輛檢測中心點位置“向后移動”的假象。

針對此現(xiàn)象,截取了車輛在等候紅燈期間視頻,通過記錄同一車輛檢測框中心點的位置信息,計算每幀視頻間車輛檢測框中心點的抖動像素距離。在這些數(shù)據(jù)中隨機(jī)選取20萬個數(shù)據(jù),求得其95%分位數(shù)為4.031,將閾值設(shè)定為5像素。因此當(dāng)算法設(shè)置的時間閾值內(nèi)同車型、同顏色的車輛(不考慮車牌信息)交替駛?cè)胍曇皶r,如果其檢測中心點位置與歷史幀中相似車輛的中心點檢測位置構(gòu)成向量與車輛行進(jìn)方向向量相反,且超過車輛檢測框抖動閾值時,將損失函數(shù)矩陣中相應(yīng)值設(shè)置為極大值,從而判斷其為一輛新出現(xiàn)的車輛,將其賦予新的ID編號,如圖4所示。

圖4 設(shè)置閾值防止漏檢示意圖

2.4 匈牙利算法

根據(jù)相鄰兩幀中目標(biāo)車輛的運動信息與外觀信息誤差值矩陣,可以實現(xiàn)將第k幀中車輛跟蹤結(jié)果和第k+1幀中檢測車輛結(jié)果進(jìn)行關(guān)聯(lián)。采用匈牙利算法可以將關(guān)聯(lián)問題轉(zhuǎn)化為最大值匹配問題[27],將第k幀中有且僅有一個最優(yōu)結(jié)果與第k+1幀相匹配。如果存在多余的檢測框或者跟蹤框,可以通過設(shè)置虛擬值,將多余檢測框標(biāo)記為待跟蹤,將多余的跟蹤框標(biāo)記為目標(biāo)消失并刪除跟蹤器,從而實現(xiàn)車輛ID編號分配。

(4)

式中,cij為損失函數(shù)值;xij為匹配結(jié)果矩陣,取值為0表示檢測與跟蹤未匹配,反之匹配。

2.5 優(yōu)化后的車輛跟蹤算法流程設(shè)計

優(yōu)化后的車輛跟蹤算法框架結(jié)構(gòu)如圖5所示。首先,將檢測框與歷史跟蹤框進(jìn)行空間位置預(yù)測和外觀特征的相似度對比,得到損失函數(shù)矩陣;其次,將檢測位置中心點與歷史車輛跟蹤中心點構(gòu)成的向量,與車輛行進(jìn)方向進(jìn)行對比,同時將中心點距離與窗口抖動閾值進(jìn)行對比,如果中心點向量方向與車輛行進(jìn)方向相反且中心點距離超過窗口抖動閾值,則將對應(yīng)損失函數(shù)矩陣中數(shù)值置為極大值,否則將預(yù)測與跟蹤進(jìn)行匹配;最后,未匹配的檢測將被賦予新的ID編號,未匹配的跟蹤若未超過時間閾值則將其列為歷史車輛跟蹤,否則刪除。

圖5 優(yōu)化后的車輛跟蹤算法框架結(jié)構(gòu)

通過對視頻中車輛的進(jìn)行檢測跟蹤,發(fā)現(xiàn)本文提出方法對車輛部分或完全遮擋后再識別并跟蹤的效果有一定提升。圖6為檢測跟蹤過程中的視頻截圖,分別選取了其中的第3 962幀、第4 032幀和第4 044幀進(jìn)行對比(由于2個算法運行過程中對車輛檢測與跟蹤的差異,導(dǎo)致視頻幀中相同車輛的編號不一致),通過圖6中公交車后方白色汽車的ID編號變化可知,本文算法能夠在白色汽車被遮擋后再次出現(xiàn)時,將其之前的ID編號賦予白色汽車,而SORT算法則是對該白色汽車進(jìn)行重新編號。

圖6 相同視頻幀下算法跟蹤效果對比圖

3 交通流量統(tǒng)計

車輛統(tǒng)計模塊的主要作用是統(tǒng)計過往車輛的數(shù)量與車型,目前的交通流量統(tǒng)計方法中由于檢測ROI位置或道路交通監(jiān)控視頻角度等原因,導(dǎo)致一些車輛在某些位置被錯誤識別為其他類型車輛,在計數(shù)機(jī)制中將該車輛統(tǒng)計為錯誤的車輛類型,導(dǎo)致錯檢。因此在交通流量統(tǒng)計階段采用了不斷記錄目標(biāo)車輛的車輛類型,最終返回車輛類型的眾數(shù),從而減少錯檢的方法。其統(tǒng)計過程:當(dāng)車輛中心點坐標(biāo)在車輛統(tǒng)計框內(nèi)時,算法保存每幀目標(biāo)車輛的ID編號和車型,生成數(shù)據(jù)字典。當(dāng)車輛中心點坐標(biāo)通過車輛統(tǒng)計線時,算法返回目標(biāo)車輛的ID編號與在數(shù)據(jù)字典中記錄車型的眾數(shù),并在交通流量統(tǒng)計數(shù)據(jù)內(nèi)進(jìn)行展示,得到更準(zhǔn)確的結(jié)果,防止誤檢。車輛檢測框與車輛統(tǒng)計線位置如圖7所示,當(dāng)車輛由車道的檢測框駛向統(tǒng)計線的過程中,允許車輛存在換道行為,僅統(tǒng)計其駛離車輛統(tǒng)計線的車道,由此可以獲得該路口某車道的截面交通流量。

圖7 車輛統(tǒng)計線獲取不同車道交通流量示意圖

4 實驗結(jié)果與分析

實驗環(huán)境為Windows 10操作系統(tǒng)和GeForce RTX 2060顯卡,驗證數(shù)據(jù)采用Open ITS提供的合肥市黃山路與科學(xué)大道交叉口西進(jìn)口靠近道路中心線的3車道交通視頻。為保證數(shù)據(jù)具有代表性,選取了不同天氣下的19段視頻數(shù)據(jù),其中視頻1~11為晴天路況(其中視頻1~2為該路段中交通流量較大時段)、視頻12~15為陰雨天路況、視頻16~19為夜間路況,不同天氣路況下視頻截圖如圖8所示。

圖8 不同天氣路況視頻

對每段視頻的前5 min進(jìn)行檢測。第1步,打開根據(jù)本文算法設(shè)計的交通流量檢測系統(tǒng),導(dǎo)入視頻路徑并輸入相應(yīng)實驗所需參數(shù);第2步,根據(jù)圖像預(yù)覽效果調(diào)整實驗參數(shù);最后,根據(jù)導(dǎo)出視頻結(jié)果,進(jìn)行交通流量統(tǒng)計并與該檢測方法檢測結(jié)果進(jìn)行對比。多車道交通流量檢測系統(tǒng)執(zhí)行過程截圖見圖9。實際道路車輛統(tǒng)計結(jié)果、本文算法檢測道路交通流量與SORT算法檢測道路交通流量對比見表1,同時可以計算該交通流量檢測算法統(tǒng)計各車型交通流量的加權(quán)平均絕對誤差百分比。

表1 實際道路車輛統(tǒng)計結(jié)果/本文算法檢測道路交通流量/SORT算法檢測道路交通流量

圖9 多車道交通流量檢測系統(tǒng)執(zhí)行過程

(5)

本文統(tǒng)計結(jié)果與SORT算法統(tǒng)計結(jié)果對比見圖10。

圖10 交通流量識別結(jié)果加權(quán)平均絕對誤差百分比進(jìn)行對比

通過圖10可以看出,第1車道與第2車道加權(quán)平均絕對誤差百分比浮動較小,第3車道加權(quán)平均絕對誤差百分比浮動較大,究其原因為第3車道為該進(jìn)口車道的左轉(zhuǎn)車道,車流量較少,使得其基數(shù)較小,在交通流量統(tǒng)計過程中有少量統(tǒng)計偏差時,對其統(tǒng)計結(jié)果會產(chǎn)生較大波動。將本文算法與SORT算法在各個視頻文件中的加權(quán)平均絕對誤差百分比求得平均值,可以更加準(zhǔn)確地反映本文算法的效果,見表2。從表2中可以看出,在交通流量較大的第1車道與第2車道中,本文算法將交通流量識別結(jié)果加權(quán)平均絕對誤差的平均值降低了約4.4%;在車流量較小的第3車道,本文算法將交通流量識別結(jié)果加權(quán)平均絕對誤差的平均值降低了約0.9%。

表2 交通流量識別結(jié)果加權(quán)平均絕對誤差百分比平均值 %

5 結(jié)束語

在YOLOv4車輛識別框架下,提出了融合車輛運動信息、外觀信息和空間位置信息的車輛跟蹤算法,并提出了一種交通流量統(tǒng)計方法。通過計算本文算法與SORT算法對于視頻中交通流量的加權(quán)平均絕對誤差百分比,結(jié)果表明本文提出的方法可以較為準(zhǔn)確地進(jìn)行交通流量統(tǒng)計,有效減少了SORT算法在交通流量統(tǒng)計中的多檢、漏檢情況,具有一定實際應(yīng)用價值。

猜你喜歡
交通流量車道車型
智慧收費機(jī)器人在高速公路車道上的應(yīng)用
31.98萬元起售,AITO品牌第二款車型問界M7發(fā)布
基于OpenCV的直道車道線識別技術(shù)研究
2022全球期待車型 TOP10
北斗+手機(jī)實現(xiàn)車道級導(dǎo)航應(yīng)用
拷問:三缸發(fā)動機(jī)車型到底能不能買?
燕山路與曹雪芹西道交叉口運行有軌電車可行性研究
無人車對交通流的影響分析
參展推薦品類索引
交通流量增長下的空管安全預(yù)警系統(tǒng)研究
昆山市| 屏南县| 茂名市| 余干县| 迭部县| 乐昌市| 兴安县| 彰化市| 祁门县| 英吉沙县| 四会市| 永德县| 东城区| 吉林省| 赣州市| 泰来县| 定南县| 阿拉善左旗| 宝丰县| 余姚市| 观塘区| 翁源县| 勃利县| 清水县| 西贡区| 三台县| 呼玛县| 大足县| 卢龙县| 安乡县| 聂拉木县| 乌拉特中旗| 井陉县| 南陵县| 焦作市| 雅安市| 延川县| 广西| 万盛区| 波密县| 桂东县|