摘? 要: 為了研究復(fù)雜環(huán)境下交通事故側(cè)翻車輛的檢測識別問題,采用RCNN檢測算法,對一定數(shù)量的常見車輛事故場景和車身關(guān)鍵部位進(jìn)行模型訓(xùn)練,并在此基礎(chǔ)上結(jié)合空間輔助定位模型加強(qiáng)車輛側(cè)翻檢測分類。實驗結(jié)果表明,該組合方法有效地提升了翻車事故的檢測識別水平,并對誤檢率和漏檢率有顯著的抑制作用。
關(guān)鍵詞: RCNN; 空間輔助定位; 翻車事故檢測; 交通安全
中圖分類號:TP391.4? ? ? ? ? 文獻(xiàn)標(biāo)志碼:A? ? ?文章編號:1006-8228(2019)01-55-04
Abstract: In order to study the detection and identification of traffic accident rollover vehicles in complex environments, the RCNN detection algorithm is used to train a model with certain number of common vehicle accident scenes and key parts of the vehicle body. On this basis, the detection of vehicle rollover is enhanced with the space-aided positioning model. The experiment result shows that the combined method effectively improves the detection and recognition level of the vehicle rollover accident and has a significant inhibitory effect on the false detection rate and the missed detection rate.
Key words: RCNN; space-aided positioning model; vehicle rollover accident detection; traffic safety
0 引言
在交通擁擠的城市,如何通過有效的交通信息檢測到交通事故的發(fā)生是一個難題。早期,研究人員一般采用統(tǒng)計性質(zhì)的車流量數(shù)據(jù)來預(yù)測交通事故,Chien-Hua Hsiao等人采用模糊邏輯與神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,提出一種模糊邏輯事件巡檢系統(tǒng)(FLPS)[1];Stephanedes等人設(shè)計了一種時間平滑檢測器,可以用來減少因為在短時間內(nèi)的交通擾動發(fā)生錯誤事件決策的可能性[2];龍瓊等人提出一種尖點突變理論,從車流量的數(shù)據(jù)中檢測車輛的擁堵事件[3]。以上方法由于硬件水平和檢測方式的局限性,一般采用地感線圈等裝置獲取車流量來作為交通事故檢測的依據(jù),在數(shù)據(jù)信息獲取的維度上較為單一,難以描述到更具象化的交通事故信息。在之后的幾十年里,多數(shù)城市的關(guān)鍵交通道路的視頻監(jiān)控系統(tǒng)設(shè)備逐步走向“全天候、全覆蓋、無死角”,為城市道路提供了最為直觀和豐富的交通道路信息。
隨著人工智能、大數(shù)據(jù)分析方法和機(jī)器視覺技術(shù)的快速發(fā)展,如何從海量交通視頻流實時檢測和發(fā)掘關(guān)鍵交通事故信息,逐步成為重要的研究方向和研究熱點。旺勤等人在文獻(xiàn)[4]中提出了基于視頻分析的交通事件報警系統(tǒng),從道路監(jiān)控視頻流中自動獲取交通參數(shù)和交通事故信息,便于及時檢測報警;劉緯琪等人通過設(shè)計某種二維平面包圍盒來檢測車輛間的安全距離和車輛間的碰撞[5];趙有婷等人采用機(jī)器視覺和軌跡分析的方法來檢測最為常見的五種交通違章事件[6];苑瑋琦等人采用背景差分方法來檢測交通道路擁堵、行人、車輛等交通事故[7]。由于受到算法實時性和檢測技術(shù)的約束,以上文獻(xiàn)一般采用常見的機(jī)器視覺算法,在交通事故的視頻流使用背景差分或運(yùn)動差分方法提取前景,在根據(jù)運(yùn)動前景的特征確定車輛、行人等被跟蹤物體,并分析它們的軌跡信息,通過這些信息來判斷交通事故的產(chǎn)生。但對于某些較為復(fù)雜的交通場合,被跟蹤物體不僅有可能會受到光照變化,遮擋等環(huán)境因素的影響,在交通事故的發(fā)生過程中往往伴隨著交通物體發(fā)生旋轉(zhuǎn)、形變、碎裂、煙霧、起火等變化,這在一定程度上往往增加了交通事故視頻檢測的難度;另外由于常規(guī)視頻檢測算法一般采用人工設(shè)計的特征模式來提取前景特征,在復(fù)雜多變的交通檢測場景常常表現(xiàn)出魯棒性低、漏檢率和誤檢率過高的問題[8],因此,需要更有效的機(jī)器視覺算法,去挖掘交通視頻流中更為豐富的事件信息來展現(xiàn)和描述交通事故細(xì)節(jié),近年來,深度學(xué)習(xí)算法研究獲得較大的突破,相對與人工選擇特征模式的選擇性難題,深度學(xué)習(xí)主要依靠卷積神經(jīng)網(wǎng)絡(luò)對圖片特征進(jìn)行訓(xùn)練和學(xué)習(xí),能夠自動挖掘更為豐富的圖像特征信息,因此,如何將CNN、RCNN[12-14]等深度學(xué)習(xí)算法應(yīng)用到交通視頻監(jiān)控領(lǐng)域成為智能交通研究者進(jìn)一步的突破方向。
本研究以存在車輛事故的圖像作為研究對象,提出一種結(jié)合RCNN深度學(xué)習(xí)的車輛事故檢測算法,并在車輛事故數(shù)據(jù)集下驗證算法性能。
1 RCNN檢測算法框架
1.1 RCNN檢測算法特點
隨著常規(guī)圖像檢測處理技術(shù)正逐步達(dá)到一個難以突破的瓶頸,使用深度學(xué)習(xí)的方法來檢測復(fù)雜場景下的目標(biāo)物體成為研究者們的下一步的研究熱點[9-11]。CNN、RCNN[12-14]在這一背景下被提出,主要思路是采用大規(guī)模的學(xué)習(xí)網(wǎng)絡(luò)來訓(xùn)練目標(biāo)圖像, 從而最大程度的挖掘出目標(biāo)圖像的顯著特征。 在深度學(xué)習(xí)出現(xiàn)之前,以往檢測目標(biāo)的對象特征主要通過常規(guī)方法來選擇,對應(yīng)于不同的場景使用不同的檢測特征組合,比如紋理、顏色、HOG、輪廓等, 這些特征大部分是人為設(shè)定的,因此在多目標(biāo)、多變場景的檢測上會變得魯棒性折損,而深度學(xué)習(xí)方法是采用多層網(wǎng)絡(luò)挖掘目標(biāo)物體的更為豐富的特征, 在復(fù)雜場景具有更好的魯棒性檢測能力。
1.2 RCNN檢測算法具體訓(xùn)練步驟
STEP1:輸入圖像進(jìn)入卷積層和max池化層,獲得圖像特征向量feature map,這一步驟一般采用5層的卷積層結(jié)構(gòu)(conv+relu+conv+relu+maxpol)可達(dá)到良好的特征提取效果。
STEP2:特征向量通過RPN層先自動生成一定數(shù)量的anchors框,這是第一步粗選,通過后續(xù)的softmax激活函數(shù)判斷框內(nèi)像素是屬于前景還是屬于背景, 而后通過回歸調(diào)整,獲得更為精確的候選框和候選特征。
STEP3:ROI池化層將圖像的卷積層獲得的特征向量和由第二步獲得的候選框進(jìn)行進(jìn)一步的修剪和降維,能夠進(jìn)一步的在保證有效特征的前提下,減少特征向量矩陣的規(guī)模,并獲得修剪后的候選特征向量。
STEP4:最后通過全連接層,softmax修正和分類器,一邊計算候選框的置信概率,一邊更為精確的修正候選框的具體位置,使其更為接近真實物體的位置和尺寸,并輸出最后的檢測置信度。
RCNN具體的訓(xùn)練過程如圖1所示。
2 基于RCNN的交通車輛側(cè)翻事故檢測算法
2.1 RCNN車輛檢測方法
按照RCNN檢測流程[12],其中最為關(guān)鍵的地方在于RCNN提供了region proposal層,該層使用預(yù)先設(shè)定的多個錨框在多尺度圖像上來估計與真實物體的疊加程度,以此來轉(zhuǎn)化為概率函數(shù),并在后續(xù)的過程轉(zhuǎn)化成損失函數(shù)的表述形式:
文獻(xiàn)[12]描述的損失函數(shù)的計算是在訓(xùn)練過程中,通過一定數(shù)量批次的錨框(anthor)選取后,查看其與真實物體位置區(qū)域的交疊程度,這個程度以概率pi體現(xiàn)。比如,某個錨框如果有70%的區(qū)域以上疊加在檢測物體上,那么可以認(rèn)為該錨框的選取非常接近檢測物體,其概率pi記為1(正標(biāo)簽),否則記為0(負(fù)標(biāo)簽)。ti表示一組參數(shù)化的預(yù)測框坐標(biāo)值,而ti*表示物體真實位置坐標(biāo)值。
至此,損失函數(shù)可以通過指定的計算形式,將不同批次的錨框和預(yù)測框與檢測物體的真實值進(jìn)行距離誤差運(yùn)算,并將這一批次的誤差進(jìn)行累積置入RPN訓(xùn)練網(wǎng)絡(luò)。這樣經(jīng)過訓(xùn)練后獲得的訓(xùn)練模型,能夠在復(fù)雜的圖像上檢測多個類別的物體,并通過分類器將它們正確分類和獲得類別置信度。
因此,采用RCNN對車輛圖像進(jìn)行訓(xùn)練后,可以快速的在圖像標(biāo)記出車輛的位置,但是在區(qū)分正常車輛和事故車輛還達(dá)不到要求,主要是因為許多發(fā)生翻車事故的車輛雖然產(chǎn)生了一定程度的形變,但車輛的大部分表征信息與正常車輛表征信息非常相似,容易造成分類混淆。
2.2 車輛關(guān)鍵特征檢測
正常車輛與翻車事故車輛較為重要的區(qū)別在于車輛的空間位置有很大的不同,因此需要預(yù)先訓(xùn)練描述車輛空間關(guān)系的關(guān)鍵特征模型,其中包括車輪、車窗、車頭、車燈、車尾等,在RCNN能夠正確定位車輛位置關(guān)系后,再使用這些訓(xùn)練好的小特征模型進(jìn)行檢測。為后續(xù)的進(jìn)一步車輛空間位置輔助估計判斷提供關(guān)鍵信息。
為了提升小特征的檢測速度,可以采用圖像語義分割、金字塔模型和滑窗等方法檢測描述車輛空間關(guān)系關(guān)鍵特征。以圖2為例,在檢測出車輛的ROI區(qū)域情況下(可信度0.89,分類為CAR),在內(nèi)部滑窗檢測出三個車輪,可信度分別為0.95,0.93,0.68,一個尾燈,可信度0.98,和車尾(可信度0.94)。
2.3 車輛空間位置輔助判斷
在利用小特征模型檢測到車輛關(guān)鍵部位后,可快速的在圖像上定位到各個關(guān)鍵部位的具體坐標(biāo),并依據(jù)先驗知識,估算車輛各個部位鏈接起來組成的剖平面,圖3顯示出了由圖2提取關(guān)鍵部位坐標(biāo)后,三個車輪的坐標(biāo)構(gòu)成了車輛底盤的剖平面,而車燈、車尾特征的坐標(biāo)均位于底盤剖平面的下方,由此估計出車頂正向方向(紅線表示),它與常規(guī)車輛的車頂正方向形成較大的仰角,因此可將其判定為翻車事故,仰角越大,事故越為嚴(yán)重。
3 算法實驗分析
為了評估算法的有效性,第一步,在一臺裝備cpu i7-6700,8G內(nèi)存和GTX 1080顯卡的PC機(jī)上部署UBUNTU 16.04操作系統(tǒng)和Caffe深度學(xué)習(xí)框架平臺,在交通常規(guī)場景選用布爾諾科技大學(xué)交通研究組的汽車數(shù)據(jù)集,從148個車輛種類中挑選出約10000張不同角度的車輛進(jìn)行車輛檢測RCNN訓(xùn)練,獲得常規(guī)車輛檢測網(wǎng)絡(luò)模型和車輪、車燈、車尾、車頭、車窗五種常見車輛關(guān)鍵部位特征的訓(xùn)練模型。第二步,從互聯(lián)網(wǎng)搜集約1500張發(fā)生車輛側(cè)翻的交通事故圖像,從中抽取1000張在常規(guī)車輛檢測模型的基礎(chǔ)上進(jìn)行第二步的微調(diào)(Fine-tuning)訓(xùn)練,獲得事故車輛的檢測模型。最后再加上本文的關(guān)鍵車身特征檢測和車輛位置輔助分類,來確定車輛是否產(chǎn)生側(cè)翻。
為了檢驗檢測和分類的最終效果,將剩下500張側(cè)翻事故圖像再混進(jìn)500張正常車輛圖像,構(gòu)成最終分類測試集,用來驗證各個階段的模型分類情況。最終各個檢測模型的分類情況如表1所示。
從實驗分析結(jié)果來看,直接調(diào)用RCNN訓(xùn)練常規(guī)模型容易將事故車輛誤識別成正常車輛,因為事故車輛雖然表面特征和位置特征發(fā)生變化,但整體特征仍然與正常車輛較為相似,而經(jīng)過微調(diào)訓(xùn)練后,誤識別的數(shù)量有一定程度下降,但仍然有部分車輛誤檢,而采用微調(diào)訓(xùn)練加上空間特征判決模型,能切實有效的將誤識別率和漏檢率控制在較小的范圍內(nèi)。
4 結(jié)論與展望
為了研究在復(fù)雜場景的交通事故車輛檢測問題,在Faster RCNN檢測算法基礎(chǔ)上,利用該算法訓(xùn)練了常規(guī)條件下的車輛檢測模型,并在此模型的基礎(chǔ)上加入事故車輛進(jìn)行微調(diào)訓(xùn)練,為獲得更好的識別效果,最后加入了車輛關(guān)鍵部分的空間位置特征分類判決模塊。算法實驗分析表明,該組合方法能夠在較大程度上減少正常車輛和事故車輛的誤識率和檢測率,為公共交通安全交通事故視頻檢測提供一定的重要研究依據(jù)。由于交通異常視覺場景錯綜復(fù)雜,算法在多目標(biāo)識別和運(yùn)行效率仍然具有較大程度的提升空間,在交通事故嚴(yán)重程度分類等更為細(xì)粒度的視覺識別上尚需作進(jìn)一步的改進(jìn)。
參考文獻(xiàn)(References):
[1] Hsiao C H, Lin C T, Cassidy M. Application of Fuzzy Logic and Neural Networks to Automatically Detect Freeway Traffic Incidents[J].Journal of Transportation Engineering,1994.120(5):753-772
[2] Stephanedes Y J, Chassiakos A P. Freeway incident?detection through filtering[J]. Transportation Research Part C Emerging Technologies,1993.1(3):219-233
[3] 龍瓊,胡列格,張謹(jǐn)帆等.基于尖點突變理論模型的交通事故檢測[J].土木工程學(xué)報,2015.9:112-116
[4] 汪勤,黃山,張洪斌等.基于視頻圖像處理的交通事件檢測系統(tǒng)[J].計算機(jī)應(yīng)用,2008.28(7):1886-1889
[5] 劉緯琪,王夏黎,荊樹旭.一種基于OBB包圍盒算法的交通事故檢測方法[J].計算機(jī)技術(shù)與發(fā)展,2014.10:34-37
[6] 趙有婷,李熙瑩,羅東華.基于視頻車輛軌跡模型的交通事件自動檢測方法研究[J].中山大學(xué)學(xué)報(自然科學(xué)版),2011.50(4):56-60
[7] 苑瑋琦,謝昌隆.基于機(jī)器視覺的交通事件檢測方法的研究[J].計算機(jī)仿真,2013.30(10):189-193
[8] 劉杰.一種基于多特征融合的自適應(yīng)目標(biāo)跟蹤策略[J].大眾科技,2016.11:9-12
[9] 崔華,劉云飛,宋鑫鑫.基于CNN深度學(xué)習(xí)模型的交通圖像擁堵識別[J].科技創(chuàng)新與應(yīng)用,2018.4:19-20
[10] 趙勝,趙學(xué)健,張欣慧,孫知信,陳勇.基于sobel算子和CNN的車輛軌跡識別系統(tǒng)[J].計算機(jī)技術(shù)與發(fā)展,2018.7:1-5
[11] 宋煥生,張向清,鄭寶峰,嚴(yán)騰.基于深度學(xué)習(xí)方法的復(fù)雜場景下車輛目標(biāo)檢測[J].計算機(jī)應(yīng)用研究,2018.4:1270-1273
[12] Girshick, Ross. "Fast R-CNN." IEEE International? Con-ference on Computer Vision IEEE, 2015:1440-1448
[13] Gupta S, Girshick R, Arbeláez P, et al. Learning Rich?Features from RGB-D Images for Object Detection and Segmentation[J],2014.8695:345-360