周盛 王宵 王子豪 陶菁怡 邵葉秦 李澤慧 胡彬 陳錦花 王瓊
摘要:車(chē)輛檢測(cè)是智能交通中的一個(gè)基本問(wèn)題。為了有效地檢測(cè)車(chē)輛,本文提出了基于多通道背景提取算法的車(chē)輛檢測(cè)方法。首先采用多通道灰度化預(yù)處理圖像,并分別建立相應(yīng)的背景模型,接著衡量新像素點(diǎn)和背景模型的相似性,分類(lèi)出前景和背景像素,然后運(yùn)用形態(tài)學(xué)操作和區(qū)域標(biāo)記法濾除噪聲,檢測(cè)出運(yùn)動(dòng)目標(biāo),并通過(guò)區(qū)域標(biāo)記定位目標(biāo)。本文從不同角度開(kāi)展對(duì)比實(shí)驗(yàn),結(jié)果表明基于多通道背景提取算法的車(chē)輛檢測(cè)能夠有效提高車(chē)輛檢測(cè)的精確性和完整性。
關(guān)鍵詞:車(chē)輛檢測(cè);多通道;前景融合;區(qū)域標(biāo)記法
中圖法分類(lèi)號(hào) TP391.41 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào):1009-3044(2018)11-0203-04
Vehicle Detection Based on Multi-Channel Background Extraction Algorithm
ZHOU Sheng1,WANG Xiao2 ,WANG Zi-hao2 ,TAO Jing-yi2*,SHAO Ye-qin2,LI Ze-hui2 ,Hu Bin1 ,CHEN Jin-hua3,WANG Qiong4
(1.School of Computer Science and Technology, Nantong University, Nantong 226019, China;2.School of Transportation, Nantong University, Nantong 226019, China;3.Modern Education and Technology, Nantong University, Nantong 226019, China;4.School of Computer Science and Engineering, Nanjing University of Science and Technology, Nanjing 210094, China)
Abstract:Vehicle detection is a basic problem in intelligent transportation. To effectively detect vehicles, this paper proposes a vehicle detection method based on multi-channel background extraction algorithm. Firstly, the multi-channel gray-scale preprocessing images are used to establish the corresponding background model.Secondly, the similarity between the new pixel and the background model is measured, classifying the foreground and the background pixels. Finally,our method filters the noise by the morphological and regional markers, detects the moving target, and locates the target through the area marker. In this paper, extensive experiments are carried out. The experimental results show that vehicle detection based on multi-channel background extraction algorithm can effectively improve the accuracy and completeness of vehicle detection.
Key words: Vehicle detection; multi-channel; Foreground fusion; area marking method
隨著社會(huì)經(jīng)濟(jì)的快速發(fā)展,道路上汽車(chē)的數(shù)量不斷增加。機(jī)動(dòng)車(chē)肇事逃逸、機(jī)動(dòng)車(chē)逆行、機(jī)動(dòng)車(chē)違停等交通違法行為顯著增加。為了杜絕上述違法行為的發(fā)生,公安部門(mén)在各個(gè)路口和關(guān)鍵地點(diǎn)安裝監(jiān)控,對(duì)車(chē)輛的異常行為進(jìn)行記錄。目前,大部分網(wǎng)點(diǎn)還是采用人工方式檢查視頻中車(chē)輛的異常行為。因此,需要一種能自動(dòng)從視頻中檢測(cè)目標(biāo)(車(chē)輛)的方法,并在此基礎(chǔ)上進(jìn)行車(chē)輛跟蹤和異常識(shí)別,最終檢測(cè)出車(chē)輛的違章行為。
在復(fù)雜環(huán)境下,有諸多因素影響著運(yùn)動(dòng)目標(biāo)檢測(cè)的效果和質(zhì)量,這給運(yùn)動(dòng)目標(biāo)檢測(cè)帶來(lái)了很大的挑戰(zhàn),也使復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)成為研究熱點(diǎn)[1-5]。目前常用的運(yùn)動(dòng)目標(biāo)檢測(cè)方法有光流法[6],幀間差分法[7],背景減除法[8,9]等。1) 光流法是在合適的平滑性約束條件下,根據(jù)圖像序列的時(shí)空梯度估算運(yùn)動(dòng)場(chǎng),通過(guò)分析運(yùn)動(dòng)場(chǎng)的變化對(duì)運(yùn)動(dòng)目標(biāo)和場(chǎng)景進(jìn)行檢測(cè)與分割。這種方法檢測(cè)時(shí)間比較長(zhǎng),難以適用于實(shí)時(shí)檢測(cè)。2) 幀間差分法是在相鄰兩幀或者三幀間采用基于像素的圖像差分,通過(guò)閾值來(lái)提取圖像中的運(yùn)動(dòng)區(qū)域。這種方法實(shí)現(xiàn)容易,但是檢測(cè)顏色一致的物體時(shí),目標(biāo)內(nèi)部會(huì)產(chǎn)生空洞。3) 背景減除法是通過(guò)建立真實(shí)有效的背景模型,將當(dāng)前幀與背景圖像進(jìn)行差分比較,從而實(shí)現(xiàn)對(duì)運(yùn)動(dòng)區(qū)域的檢測(cè)。這種方法中,背景模型的好壞直接影響運(yùn)動(dòng)目標(biāo)檢測(cè)的效果。為了有效檢測(cè)運(yùn)動(dòng)目標(biāo),Oliver Barnich、Marc Van Droogenbroeck等[10-12]提出了一種基于概率統(tǒng)計(jì)的背景建模方法,即視覺(jué)背景提?。╒isual Background Extractor,Vibe)。該算法的主要思想是將圖像的像素點(diǎn)存儲(chǔ)在一個(gè)背景模型中,背景模型中每個(gè)像素是由該像素的歷史像素值組成,然后將新的像素和背景模型進(jìn)行比較,進(jìn)而判斷新的像素點(diǎn)屬于前景點(diǎn)還是背景點(diǎn)。Vibe算法簡(jiǎn)單且便于實(shí)現(xiàn),效果優(yōu)于幀間差分和光流法等算法,且能規(guī)避一些噪聲的影響。然而,Vibe算法是單通道的,會(huì)導(dǎo)致圖像顏色信息的丟失,在實(shí)際情況下會(huì)使前景和背景難以區(qū)分,影響前景目標(biāo)的提取。
為了提取完整的前景目標(biāo),本文提出一種基于多通道背景提取算法(Vibe)的車(chē)輛檢測(cè)方法,提高運(yùn)動(dòng)目標(biāo)檢測(cè)的完整性和精確性。
1基于多通道Vibe的車(chē)輛檢測(cè)
1.1問(wèn)題定義和系統(tǒng)框架
本文提出了一個(gè)基于多通道Vibe的車(chē)輛檢測(cè)方法。方法首先讀取N幀視頻圖像,經(jīng)過(guò)預(yù)處理后得到R、G、B三個(gè)通道的灰度圖像,對(duì)三通道灰度圖像分別構(gòu)建背景模型。接著,基于建立的背景模型,計(jì)算新像素與背景模型的相似度,從而檢測(cè)出前景和背景。最后,為了去除前景圖像中的干擾信息,使用腐蝕和膨脹操作消除較小的噪聲,使用面積閾值過(guò)濾較大的噪聲,獲得干凈的車(chē)輛圖像,并利用標(biāo)記信息對(duì)車(chē)輛進(jìn)行定位。為了保持背景模型的實(shí)時(shí)性,算法需要對(duì)R、G、B三通道背景模型進(jìn)行不斷更新。
1.2圖像預(yù)處理
從監(jiān)控視頻中獲取的一般都是彩色圖像,為了充分利用各個(gè)通道的圖像信息,本文需要把原始的彩色圖像轉(zhuǎn)變成三個(gè)單通道的灰度圖像,分別建立背景模型。三個(gè)通道的灰度圖像如下:
[gkx,y=I(x,y,k)] (1)
其中[I(x,y,k)]為原來(lái)的彩色圖像在[(x,y)]處的第[k]個(gè)分量的像素值,[k]=R,G,B是分別對(duì)應(yīng)的紅、綠、藍(lán)顏色分量。
1.3 背景模型的初始化和前景檢測(cè)過(guò)程
背景模型初始化需要通過(guò)一段視頻序列的學(xué)習(xí)來(lái)完成。本文的算法是把開(kāi)始的N個(gè)連續(xù)的視頻圖像填充到背景模型的N個(gè)背景模板中完成初始化過(guò)程的。
前景目標(biāo)(車(chē)輛)的檢測(cè)過(guò)程就是分類(lèi)的過(guò)程。假設(shè)當(dāng)前圖像在[(x,y)]處的像素值是[v(x,y)],第[i]個(gè)背景模板在[(x,y)]處的樣本像素值定義為[vi(x,y)]。背景模型中[(x,y)]處所有背景模板的樣本點(diǎn)組成的集合為:
[Mx,y=v1x,y,v2x,y,...,vNx,y] (2)
當(dāng)前圖像上的像素值[v(x,y)]需要依次與集合[M(x,y)]中的像素值在對(duì)應(yīng)的顏色分量上計(jì)算距離,若距離小于給定的距離閾值nRadius,說(shuō)明該像素與背景模型中某個(gè)背景模板上的樣本像素相匹配,在背景模型中與該像素對(duì)應(yīng)的模板匹配數(shù)目P上加1。
[P=i=1Nδvi(x,y)-v(x,y)-nRadius] (3)
其中,[δz=1,z<00,z≥0]。背景模型中存儲(chǔ)的是背景模板。如果當(dāng)前圖像上的像素與背景模板的匹配個(gè)數(shù)越多,那么該像素是背景點(diǎn)的可能性就越大。當(dāng)匹配數(shù)目P大于一個(gè)給定閾值nThreshold時(shí),則把[v(x,y)]分類(lèi)為背景點(diǎn),否則為前景點(diǎn)。
1.4 背景模型的更新
為了保證背景模型能夠適應(yīng)不斷變化的外界環(huán)境,需要不斷地更新背景模型。本文采用的是無(wú)記憶更新策略和空間鄰域更新策略。
1)無(wú)記憶更新策略是一種保守更新策略。保守更新策略就是一旦某個(gè)像素點(diǎn)檢測(cè)為前景點(diǎn),背景模型中對(duì)應(yīng)的樣本像素永遠(yuǎn)不被更新。無(wú)記憶更新策略的特點(diǎn)是通過(guò)等概率隨機(jī)密度函數(shù)更新樣本像素,不會(huì)機(jī)械的更新最舊的像素。這種隨機(jī)更新策略使得樣本值的生命周期呈現(xiàn)指數(shù)型衰減,在某一時(shí)刻t樣本像素不被更新的概率為(N-1)/N,在經(jīng)過(guò)[dt]時(shí)間過(guò)后,樣本像素不被更新的可能性是
[Pt,t+dt=N-1Nt+dt-t] (4)
從公式4可以知道,背景模板中的樣本像素是否被更新與時(shí)間t無(wú)關(guān)。在經(jīng)過(guò)一段時(shí)間之后,任何一個(gè)背景模板中的樣本像素都能得到及時(shí)的更新。
2)空間鄰域更新策略是依據(jù)像素在空間分布上具有一定的相似性,因此把新的像素更新到鄰域像素中。這種更新方法使得背景模型逐漸向外擴(kuò)散,有利于處理鬼影等問(wèn)題;同時(shí)也能保證在保守更新策略下,適應(yīng)外界背景環(huán)境帶來(lái)的變化。假設(shè)[vi]是[M(x,y)]中的一個(gè)像素,每次更新像素的時(shí)候,從像素[vi]的八鄰域中隨機(jī)選取一個(gè)位置,并將其值更新為[vi]。
1.5 前景融合
上述操作可以為每個(gè)顏色通道檢測(cè)出相應(yīng)的前景點(diǎn)信息。由于每個(gè)顏色通道中保存著不同的信息,因此我們需要融合三個(gè)得到的前景圖,方法如下:
[Fpro=2550][FR==255orFG==255orFB==255其他] (5)
其中[FR]、[FG]、[FB]分別代表R、G、B顏色通道上檢測(cè)到的前景圖像,[FPro]表示融合后的前景圖像。
融合策略既保留了每個(gè)通道中共有的前景點(diǎn)信息,又保留了每個(gè)通道特有的前景點(diǎn)信息。這樣保證本文方法檢測(cè)到的運(yùn)動(dòng)物體是完整的,但是也增加了不必要的干擾因素。
1.6 圖像數(shù)據(jù)的濾波去噪及車(chē)輛定位
由于外部因素的影響,在前景融合結(jié)果中通常含有噪聲點(diǎn)和誤檢點(diǎn),運(yùn)動(dòng)目標(biāo)的內(nèi)部也容易出現(xiàn)斷裂和空洞等問(wèn)題。為了進(jìn)一步得到更加準(zhǔn)確地檢測(cè)效果,算法需要過(guò)濾掉噪聲點(diǎn)、誤檢點(diǎn)和填充運(yùn)動(dòng)目標(biāo)中黑洞。
運(yùn)動(dòng)目標(biāo)和噪聲點(diǎn)的不同之處在于,運(yùn)動(dòng)目標(biāo)區(qū)域表現(xiàn)為由若干連通的像素點(diǎn)組成的具有一定形狀的空間,而噪聲點(diǎn)則表示為相對(duì)孤立的像素點(diǎn)的較小集合。在前景融合圖像中,大部分椒鹽噪聲可以通過(guò)形態(tài)學(xué)中的腐蝕、膨脹方法濾除;另一部分較大的噪聲區(qū)域或誤檢點(diǎn)可以用區(qū)域面積閾值濾除。
由于圖像中也存在非機(jī)動(dòng)車(chē)和行人,這里可以依據(jù)非機(jī)動(dòng)車(chē)與行人在水平方向的投影寬度遠(yuǎn)小于車(chē)輛這一特性來(lái)區(qū)分車(chē)輛、非機(jī)動(dòng)車(chē)和行人。也就是說(shuō),當(dāng)運(yùn)動(dòng)目標(biāo)的水平寬度大于水平寬度閾值horizontal_width,認(rèn)為該區(qū)域是車(chē)輛,并利用這個(gè)區(qū)域的外接矩形定位車(chē)輛,否則認(rèn)為這個(gè)區(qū)域不是車(chē)輛,將其丟棄。通過(guò)區(qū)域標(biāo)記,算法可以得到車(chē)輛的位置信息,從而為后續(xù)的目標(biāo)識(shí)別和目標(biāo)跟蹤提供依據(jù)。
2實(shí)驗(yàn)結(jié)果和分析
2.1 實(shí)驗(yàn)數(shù)據(jù)與參數(shù)確定
本文的實(shí)驗(yàn)視頻是路口的實(shí)時(shí)交通監(jiān)控視頻,實(shí)驗(yàn)視頻的分辨率為2048*1536,幀率24f/s。視頻中記錄了行人,機(jī)動(dòng)車(chē)和非機(jī)動(dòng)車(chē)。實(shí)驗(yàn)硬件環(huán)境是一臺(tái)配有4G內(nèi)存,Intel(R) Core(TM) i5 2.5GHz CPU的PC機(jī),開(kāi)發(fā)工具為VS2013+OpenCv2.4.9。
本文使用多通道背景提取算法完成運(yùn)動(dòng)目標(biāo)的檢測(cè)。其中,背景模型樣本集N設(shè)為20。標(biāo)記法中選擇一組標(biāo)記像素Label為20到254。標(biāo)記區(qū)域的面積閾值A(chǔ)rea_threshold設(shè)為800。水平寬度閾值horizontal_width設(shè)為200。距離閾值nRadius設(shè)為30。匹配個(gè)數(shù)閾值nThreshold設(shè)為2。本文算法的準(zhǔn)確率用正確分類(lèi)百分比來(lái)衡量:
[PCC=TN+TPTN+TP+FN+FP] (6)
其中TP表示正確的前景像素點(diǎn)數(shù)目;FP表示誤檢的前景像素?cái)?shù)目;TN表示正確背景像素?cái)?shù)目;FN表示誤檢的背景像素?cái)?shù)目。
2.2 實(shí)驗(yàn)結(jié)果
為了評(píng)價(jià)多通道背景提取算法的有效性,我們將多通道背景提取算法、單通道(平均灰度圖像)背景提取算法在本文的算法框架下進(jìn)行了對(duì)比實(shí)驗(yàn)。本文算法(多通道)、本文算法(單通道)分別代表基于RGB多通道的背景提取算法、基于平均灰度圖像的單通道背景提取算法。從圖2中的綠色矩形可以看出,相對(duì)于單通道,多通道更好的保證運(yùn)動(dòng)目標(biāo)的完整性,能更有效的檢測(cè)車(chē)輛。
為了衡量本文背景模型的優(yōu)點(diǎn),我們又對(duì)比了單高斯背景模型和混合高斯背景模型。單高斯背景模型(全稱(chēng),GSM)是用單個(gè)高斯分布為圖像上的每個(gè)像素建立模型,利用高斯函數(shù)得到每個(gè)像素屬于前景的概率值,將其與概率閾值進(jìn)行比較,確定前景和背景,并對(duì)背景模型上各點(diǎn)的高斯參數(shù)進(jìn)行更新?;旌细咚贡尘澳P停ㄈQ(chēng),GMM)是單高斯背景模型(GSM)的擴(kuò)展,不同之處在于,需要用多個(gè)高斯分布對(duì)每個(gè)像素建模,當(dāng)前圖像中的每個(gè)像素與混合高斯模型進(jìn)行匹配,判定是前景點(diǎn)還是背景點(diǎn),并對(duì)背景模型上各點(diǎn)的高斯參數(shù)進(jìn)行更新。單高斯背景模型(GSM)在前景檢測(cè)時(shí),公交車(chē)能夠較好的檢測(cè)到,但周?chē)慕ㄖ?、?chē)道線(xiàn)和靜止的車(chē)輛被明顯的檢測(cè)前景,并帶有大量的噪聲,降低了檢測(cè)的精確性(如圖3(a)所示)。混合高斯背景模型(GMM) 未檢測(cè)到上下方向靜止的車(chē)輛;噪聲比單高斯背景模型有所減少;但公交車(chē)后方檢測(cè)不完整(如圖3(b)所示)。而本文的方法(如圖2(b)所示)有效減少噪聲和誤檢點(diǎn)的出現(xiàn),并能完整的檢測(cè)運(yùn)動(dòng)物體。因此,由于多通道的方法和背景更新策略等因素,本文算法能夠適應(yīng)光線(xiàn)帶來(lái)的干擾,還能夠有效抑制運(yùn)動(dòng)物體內(nèi)黑洞的大小和陰影,保證了運(yùn)動(dòng)物體的完整性和精確性。
2.3算法效率分析
為了衡量算法的效率,本文對(duì)比了單高斯背景模型和多高斯背景模型。如表1所示,本文的算法效率高于其他兩個(gè)方法。
3結(jié)束語(yǔ)
本文提出了一種基于多通道Vibe的車(chē)輛檢測(cè)方法。首先提取RGB三通道圖像信息,接著運(yùn)用Vibe算法檢測(cè)運(yùn)動(dòng)目標(biāo),利用形態(tài)學(xué)操作和區(qū)域面積法過(guò)濾噪聲,再通過(guò)標(biāo)記定位車(chē)輛。實(shí)驗(yàn)表明,基于多通道背景提取算法的車(chē)輛檢測(cè)方法有效提高了車(chē)輛檢測(cè)的準(zhǔn)確性和完整性。該算法具有一定的魯棒性和適應(yīng)性,可用于車(chē)輛的實(shí)際跟蹤和識(shí)別,具有一定的實(shí)用價(jià)值。
參考文獻(xiàn):
[1] 閔衛(wèi)東, 郭曉光, 韓清. 改進(jìn)的ViBe算法及其在交通視頻處理中的應(yīng)用[J]. 光學(xué)精密工程, 2017, 25(3):806-811.
[2] 魏洪濤, 李瑾, 吳細(xì)秀. 融合幀差和ViBe的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2017, 34(5):1565-1567.
[3] Nie Y, Xiao C, Sun H, et al. Compact Video Synopsis via Global Spatiotemporal Optimization[J]. Visualization & Computer Graphics IEEE Transactions on, 2013, 19(10):1664-76.
[4] Chakraborty S, Tickoo O, Iyer R. Adaptive Keyframe Selection for Video Summarization[C]. Applications of Computer Vision. IEEE on, 2015:702-709.
[5] Lu S P, Zhang S H, Wei J, et al. Timeline editing of objects in video[J]. IEEE Transactions on Visualization &ComputerGraphics;, 2013, 19(7):1218-1227.
[6] 賴(lài)麗君, 徐智勇, 張栩銚. 應(yīng)用于穩(wěn)像系統(tǒng)中的改進(jìn)梯度光流法[J]. 紅外與激光工程, 2016, 45(4):273-279.
[7] Li W, Yao J, Dong T, et al. Moving vehicle detection based on an improved interframe difference and a Gaussian model[C]. International Congress on Image and Signal Processing. IEEE, 2016:969-973.
[8] Ramya P, Rajeswari R. A Modified Frame Difference Method Using Correlation Coefficient for Background Subtraction[J]. Procedia Computer Science, 2016, 93:478-485.
[9] Cao L, Tang K, Feng Z. Moving Target Recognition under Static Background[C]. International Conference on Instrumentation and Measurement, Computer, Communication and Control. IEEE, 2014:117-120.
[10] Van Droogenbroeck M, Paquot O. Background subtraction: Experiments and improvements for ViBe[C]. Computer Vision and Pattern Recognition Workshops. IEEE, 2012:32-37.
[11] Barnich O, Droogenbroeck M V. Vibe:A Universal Background Subtraction Algorithm for Video Sequences[J]. IEEE Transactions on Image Processing,2011,20(6):1709-1724.
[12] 李海波. 基于ViBe的改進(jìn)運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J]. 圖像與信號(hào)處理,2017,06(1):52-61.