国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Adaboost算法和顏色特征的公交車輛視頻檢測

2016-05-31 01:42鄺先驗(yàn)
關(guān)鍵詞:智能交通系統(tǒng)

鄺先驗(yàn),朱 磊,吳 赟,徐 晨

(江西理工大學(xué)電氣工程與自動化學(xué)院,江西贛州341000)

?

基于Adaboost算法和顏色特征的公交車輛視頻檢測

鄺先驗(yàn),朱磊,吳赟,徐晨

(江西理工大學(xué)電氣工程與自動化學(xué)院,江西贛州341000)

摘要:針對城市交通公交車輛視頻檢測問題,本文建立一種基于Adaboost算法和車窗顏色特征的公交車輛視頻檢測算法。首先采用前景檢測方法尋找運(yùn)動的車輛,這種方法是對經(jīng)過濾波、膨脹的三幀差分法和經(jīng)過濾波、閾值法去陰影、膨脹處理的混合高斯法這兩種方法獲取的前景進(jìn)行“與”操作。并對前景檢測算法中獲取的運(yùn)動車輛使用Adaboost算法和haar特征訓(xùn)練的分類器進(jìn)行檢測,將公交車輛和大客車車輛與其他小客車車輛進(jìn)行分類。然后,考慮到公交車輛相對于大客車車輛,其車窗具有明顯的用于標(biāo)示公交線路等信息的特征顏色,采用canny算子邊緣檢測法,結(jié)合連通域處理進(jìn)行車窗定位,將車窗區(qū)域轉(zhuǎn)入HSV顏色空間,統(tǒng)計(jì)特征顏色像素占車窗總像素的比率,并與設(shè)定的閾值進(jìn)行比較,若大于該閾值,則判斷為公交車輛,否則為非公交車輛。在visual studio 2010和opencv測試平臺上,對包含公交車輛的城市交通流視頻進(jìn)行實(shí)驗(yàn),測試結(jié)果顯示,本文的運(yùn)動檢測算法能較好地適應(yīng)視頻序列中的噪聲,比單一的三幀差分或混合高斯法具有更高的魯棒性,經(jīng)測試大量包含公交車輛視頻序列后獲取的canny邊緣檢測及連通域閾值,能夠讓車窗定位的準(zhǔn)確率達(dá)到95%以上,車窗特征顏色的識別算法能夠有效、準(zhǔn)確地區(qū)分公交車輛和大客車車輛,從而實(shí)現(xiàn)對公交車輛的檢測和識別。

關(guān)鍵詞:智能交通系統(tǒng);公交車輛;視頻檢測;Adaboost算法;HSV顏色空間

0引言

智能交通系統(tǒng)是將先進(jìn)的信息、計(jì)算機(jī)、人工智能、電子及控制技術(shù)應(yīng)用在交通運(yùn)輸中,形成一種提高效率、保護(hù)環(huán)境、節(jié)省能源、安全可靠的綜合運(yùn)輸系統(tǒng)。車輛檢測技術(shù)在智能交通系統(tǒng)中占據(jù)重要地位,傳統(tǒng)的感應(yīng)線圈、超聲波檢測器等車輛檢測方法已很難滿足成本低廉、可靠性強(qiáng)、使用壽命長的要求。

公交車以其站臺固定、定點(diǎn)和廉價(jià)的特點(diǎn),成為大多數(shù)人出行的首選交通工具,公交車輛的檢測能為城市交通規(guī)劃、公交車站臺停車平均時(shí)間提供重要信息。公交優(yōu)先[1]是智能交通系統(tǒng)的重要組成部分,而公交車輛檢測技術(shù)是實(shí)現(xiàn)公交優(yōu)先的關(guān)鍵技術(shù)。根據(jù)檢測原理的不同,公交車輛的檢測方法主要有[2]:感應(yīng)線圈檢測法、光學(xué)檢測法、聲波檢測法、射頻( RFID) 檢測法、基于GPS的車輛檢測法和基于視頻的檢測法。與其他方法所不同的是基于視頻的檢測法由于無需在車輛上安裝輔助設(shè)備,只需在需要檢測的地點(diǎn)安裝視頻攝像頭,且目前由于各大城市智能交通系統(tǒng)的建設(shè)和完善,視頻攝像頭在大多數(shù)關(guān)鍵地點(diǎn)均已安裝,因此,采用視頻檢測法可以極大減少檢測系統(tǒng)的設(shè)備使用量,提高現(xiàn)有系統(tǒng)的使用效率。

近年來,隨著電子信息、計(jì)算機(jī)視覺和計(jì)算機(jī)性能的增強(qiáng)與發(fā)展,使基于視頻的車輛檢測技術(shù)得以實(shí)現(xiàn),這種技術(shù)具有安裝使用方便、無需高昂的設(shè)備成本、易維護(hù)和性能穩(wěn)定的優(yōu)點(diǎn),從而廣泛地應(yīng)用在智能交通系統(tǒng)中。

運(yùn)動車輛前景檢測是實(shí)現(xiàn)目標(biāo)車輛檢測的第一步,對確定目標(biāo)的大致區(qū)域有重要作用。前景提取主要有背景差法[3]、光流法[4]、幀間差法、混合高斯背景建模、前景提取法[5]和組合方法[6]。背景差法是當(dāng)前視頻幀與事先準(zhǔn)備的背景參考模型做差運(yùn)算,獲得的差分圖即為運(yùn)動前景,這就要求具有準(zhǔn)確的背景參考模型才能獲得理想的前景圖象,然而對于相機(jī)抖動時(shí),這種方法則會產(chǎn)生較大誤差。光流法因本身運(yùn)算量大,不利于實(shí)時(shí)檢測,這種方法在前景提取運(yùn)用中較為少見。幀間差法是對視頻序列中相鄰的兩幀圖像進(jìn)行差運(yùn)算來獲得前景目標(biāo),這種方法只能檢測運(yùn)動物體的輪廓,針對于這種局限性,產(chǎn)生了三幀差分的前景檢測方法?;旌细咚鼓P褪鞘褂脦讉€(gè)高斯分布來表示圖像中每個(gè)像素的特征,用獲取的新一幀圖像的每個(gè)像素與高斯背景進(jìn)行匹配,若成功匹配則為背景像素,否則為前景。

提取運(yùn)動前景后,就能夠進(jìn)行目標(biāo)車輛的檢測。文獻(xiàn)[7]使用Adaboost算法和haar特征訓(xùn)練的分類器對運(yùn)動前景區(qū)域進(jìn)行多尺度檢測,實(shí)現(xiàn)對車輛的分類。文獻(xiàn)[8]首先計(jì)算每個(gè)前景區(qū)域的面積比,接著采用LSD算法對感興趣區(qū)域面積比并符合公交車輛的前景進(jìn)行寬度的檢測,但是要區(qū)分面積比和寬度都較為接近的大客車車輛與公交車輛,則很難達(dá)理想效果。文獻(xiàn)[9]使用直線檢測和車牌黃色像素個(gè)數(shù)閾值相結(jié)合的方法,對公交車站的公交車進(jìn)行檢測,取得較好效果,但大客車車輛也具有黃色車牌和直線特征,這種方法較難在混合交通流上取得滿意效果。

本文首先采用基于三幀差分和混合高斯模型的運(yùn)動前景檢測算法,提取運(yùn)動車輛的前景,利用公交車輛在前景區(qū)域中面積相對其他車型大的特點(diǎn),初步標(biāo)記出運(yùn)動前景的感興趣區(qū)域,使用訓(xùn)練好的公交車輛分類器對感興趣區(qū)域進(jìn)行檢測。采用車窗特征顏色比較法區(qū)分公交車輛和大客車車輛,采用canny算法定位車窗,并統(tǒng)計(jì)公交車輛車窗區(qū)域特征顏色像素比率,與事先設(shè)定的閾值相比較和判斷,從而實(shí)現(xiàn)對公交車輛的準(zhǔn)確識別。

1運(yùn)動車輛前景檢測算法

1.1運(yùn)動車輛前景檢測方法

三幀差分法能夠較好地適應(yīng)光線場景變化帶來的影響,但是只能提取運(yùn)動物體的輪廓,而混合高斯模型能夠獲得最大化的感興趣區(qū)域,但不能適應(yīng)光照變化帶來的干擾。本文采用一種提取運(yùn)動車輛的方法,能夠有效地抑制噪聲和光照變化,該方法將三幀差分法和去陰影獲得的混合高斯法得到的2種前景圖像分別經(jīng)過中值濾波和形態(tài)學(xué)的膨脹操作處理,然后進(jìn)行“與”的運(yùn)算,得到最終運(yùn)動前景圖像,運(yùn)用公交車輛面積和長與寬的比值相對其他車輛大的特點(diǎn),經(jīng)連通域處理,標(biāo)記運(yùn)動的感興趣區(qū)域。運(yùn)動車輛預(yù)檢測并不能準(zhǔn)確檢測運(yùn)動目標(biāo),只能確定目標(biāo)的大致區(qū)域,供分類器進(jìn)行具體的檢測。

1.2三幀差分前景檢測算法

三幀差分法是相鄰兩幀差分法的一種改進(jìn)算法,它是對視頻序列中連續(xù)的三幀圖像進(jìn)行差分運(yùn)算。三幀差分法彌補(bǔ)了兩幀差分法難以檢測目標(biāo)重疊部分造成的空洞現(xiàn)象的缺點(diǎn),能夠較好地檢測出實(shí)際運(yùn)動目標(biāo)的輪廓。具體算法如下:

Step1:讀入視頻圖像序列中連續(xù)的三幀圖像Ik-1、Ik、Ik+1。利用公式:

(1)

對連續(xù)的兩幀圖像做幀間差分運(yùn)算。

Step2:設(shè)定合適的閾值T對所得的差分圖像按以下方法進(jìn)行二值化處理:

(2)

(3)

Step3:按照方法:

(4)

對二值化圖像b(k,k-1)(x,y)和b(k+1,k)(x,y)進(jìn)行“與”操作得到的Bk(x,y)即為三幀差分法的圖像。

1.3混合高斯前景檢測算法

在高斯背景中,場景中的每一個(gè)像素的值可以由K個(gè)高斯成分組成的混合分布來表示,即圖像中像素n在t時(shí)刻的取值為xn的概率為:

(5)

(6)

(7)

(8)

(9)

(10)

其中α是模型的學(xué)習(xí)率,ρ為參數(shù)的學(xué)習(xí)率,反映的是高斯分布函數(shù)的收斂速度。如果xn與像素的K個(gè)高斯分布都不匹配,則混合高斯模型中排在最后面的幾個(gè)高斯分布將被新的高斯成分所替代,新成分的均值為當(dāng)前像素值xn,標(biāo)準(zhǔn)差為初始較大值,權(quán)重為較小值,剩下的高斯分布保持相同的均值和方差,它們的權(quán)重按照式子

(11)

(12)

T為權(quán)值閾值。

2Adaboost分類器

Adaboost算法是經(jīng)過改進(jìn)的Boosting算法[10],該算法不需要任何弱分類器的先驗(yàn)知識,其核心是針對同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器,再把這些弱分類器集合成一個(gè)更強(qiáng)的最終分類器。

2.1Adaboost算法原理

令樣本集S={(x1,y1)…(xt,yt)},其中xn是訓(xùn)練的樣本空間,yn是樣本類別描述集合,令yn∈{1,-1}(1表示含有公交車的正樣本,-1表示不含公交車的負(fù)樣本),t是樣本的總個(gè)數(shù),其中正樣本數(shù)a,負(fù)樣本數(shù)b,滿足t=a+b。

①初始化樣本權(quán)重:

(13)

②對每個(gè)e=1,…,E(E為弱分類器個(gè)數(shù)):

1)歸一化權(quán)重為:

(14)

對每個(gè)特征f,訓(xùn)練弱分類器pf;

2)計(jì)算所有特征弱分類器分類錯(cuò)誤率:

(15)

3)選取其中最小錯(cuò)誤率εe的弱分類器pe;

4)根據(jù)這個(gè)最佳弱分類器,重新更新權(quán)重:

(16)

當(dāng)dn=0時(shí),表示樣本正確分類,dn=1時(shí),則為錯(cuò)誤分類,其中βe=εe/(1-εe);

5)最后的強(qiáng)分類器:

(17)

2.2Haar特征

Haar特征是Viola等人提出的用于運(yùn)動物體檢測的一種矩形特征,具有簡單、速度快、準(zhǔn)確率高的特點(diǎn),最先被用于人臉識別。Lienhart等人對該特征進(jìn)行了擴(kuò)展[11],加入了旋轉(zhuǎn)45°矩形特征,給出了45°特征值的快速算法,提高了Haar特征檢測的識別性能。本文在對運(yùn)動車輛的識別中,采用3種常用的Haar特征:邊沿特征、線性特征和中心特征,如圖1所示。

圖1 常用的Haar特征Fig.1 Common feature of Haar

圖2 公交車輛的Haar特征Fig.2 The Haar feature of bus

這些特征模板由2個(gè)到3個(gè)白色和黑色的矩形組成,其特征值為白色矩形像素之和減去黑色矩形像素之和。對于大小為36×36像素的圖像,它所包含的矩形特征數(shù)量超過810 000個(gè),要計(jì)算所有的矩形特征,將非常耗時(shí)。積分圖[12]方法只需遍歷一次圖像就能夠求出圖像中所有區(qū)域像素的和,并將這些數(shù)據(jù)作為數(shù)組元素保存起來,因此圖像中任何一個(gè)矩形特征的值可以通過搜索數(shù)組元素進(jìn)行簡單的運(yùn)算而求出,這樣可減少運(yùn)算次數(shù),提高檢測效率。本文采用提取公交車尾部圖像的Haar特征(如圖2所示),通過Adaboost算法訓(xùn)練出一個(gè)級聯(lián)分類器,對運(yùn)動車輛前景中的感興趣區(qū)域進(jìn)行檢測。

3公交車輛車窗特征顏色檢測算法

通過上述運(yùn)動前景和分類器的檢測算法,基本上能夠識別出與公交車輛形態(tài)相似的車輛,如公交車輛、大客車(如旅游客車、企事業(yè)單位和部門的內(nèi)部大客車),接下來需要區(qū)分公交車輛和大客車。對比公交車輛和大客車車輛的各自特征,不難發(fā)現(xiàn),公交車輛的前后車窗均有某種特定顏色(國內(nèi)以紅色或綠色為主,如圖3)的車標(biāo)信息,這些車標(biāo)信息主要用于標(biāo)示本車的公交線路等信息,而其他大客車的這種特征顏色信息明顯更少,因此,可以考慮對車窗的特征顏色數(shù)量進(jìn)行統(tǒng)計(jì)并比較,從而識別出公交車輛。首先定位車窗,然后統(tǒng)計(jì)得到車窗內(nèi)特定顏色(本文以紅色為例)的像素?cái)?shù)量占車窗圖像總像素的比率,并與事先設(shè)定的像素比率閾值進(jìn)行比對,若大于該閾值,則認(rèn)為車輛為公交車輛,否則,為大客車。

圖3 公交車輛和大客車的車窗特征Fig.3 Window feature of bus and motor coach

3.1車窗定位

公交車和大客車的車窗像素相對于車窗以外的車輛外殼像素的變化較大,車窗輪廓邊緣信息突出,而其他區(qū)域這種特征相對車窗較小,選擇合適的邊緣檢測及其閾值,就可定位出車窗的位置。

對分類器檢測的車輛進(jìn)行canny算子[13]的邊緣檢測:

①對感興趣區(qū)域平滑濾波:圖像的一階導(dǎo)數(shù)對噪聲是敏感的,使用高斯核函數(shù)對圖像的感興趣區(qū)域進(jìn)行平滑濾波,減少噪聲。高斯核函數(shù)越大,噪聲減少得就越明顯,同時(shí)在邊緣檢測時(shí)也會得到更多的錯(cuò)誤。

②計(jì)算邊緣的幅值:使用水平和垂直方向的Sobel操作計(jì)算圖像的一階導(dǎo)數(shù),并且將計(jì)算的長度作為“邊緣長度”,即:

E(x,y)=|Gx(x,y)|+|Gy(x,y)|。

(18)

③計(jì)算邊緣的方向角:

(19)

④數(shù)字化邊緣方向:一旦邊緣方向角確定,就可以使數(shù)字圖像的方向角逼近邊緣方向,考慮到像素的任意性,一個(gè)像素的邊緣方向應(yīng)該只有4個(gè)值0°(左-右方向),45°(左下-右上方向),90°(下-上方向),135°(左上-右下方向)。一般來說,通常逼近這4個(gè)方向中最接近的一個(gè)。

⑤非極大值抑制:在獲取邊緣方向之后,將在這個(gè)方向上的非極大值抑制掉,并且生成細(xì)化的邊緣。

⑥雙閾值法檢測并連接邊緣:跟蹤沒有被抑制的像素,通過閾值法找出邊緣像素,canny邊緣檢測使用了高(T2)和低(T1)兩個(gè)閾值,邊緣像素的確定可按以下方法確定:

當(dāng)|E(x,y)|

當(dāng)|E(x,y)|>T2時(shí),像素是邊緣像素;

當(dāng)T1<|E(x,y)|T2的邊緣像素的邊緣包含該像素,則該像素為邊緣像素,否則不是邊緣像素。

邊緣檢測后的車窗區(qū)域能形成完整地連通區(qū)域,通過尋找連通域的方法,定位車窗的區(qū)域(圖4)。本文通過對大量包含公交車輛視頻序列的圖像進(jìn)行實(shí)驗(yàn),低閾值T1取40,高閾值T2取90。

圖4 車窗定位Fig.4 Location of the windows

3.2基于車窗特征顏色的公交車輛識別

本文以車窗內(nèi)的紅色特征顏色為例來判別車輛類別。HSV空間[14]是由A.R.Smith根據(jù)顏色直觀性創(chuàng)建的一種顏色空間,采用的是用戶直觀的色彩描述方法,在顏色提取和識別中具有更高的魯棒性,本文采用HSV空間來統(tǒng)計(jì)圖像區(qū)域內(nèi)的紅色特征顏色值的數(shù)量。

首先,對所標(biāo)記出的車窗區(qū)域轉(zhuǎn)入HSV空間,根據(jù)紅色像素在HSV空間中的范圍,遍歷車窗區(qū)域的所有像素,找出紅色像素的像素點(diǎn)(如圖5所示),并統(tǒng)計(jì)得到該區(qū)域總像素點(diǎn)數(shù)Nsum和紅色像素點(diǎn)數(shù)Nred,該車輛的車窗紅色像素?cái)?shù)量占車窗區(qū)域總像素?cái)?shù)量的比率為:

(20)

然后將rred與比率閾值rth進(jìn)行比較,若rred≥rth,則該車為公交車,否則非公交車。

rth的確定:采集城市公交系統(tǒng)中的各線路公交車輛前后車窗圖片序列,統(tǒng)計(jì)出圖片序列中每輛公交車車窗的總像素點(diǎn)數(shù)Nsum(i)和紅色特征顏色的像素點(diǎn)數(shù)Nred(i),獲得每輛公交車輛車窗紅色像素比率r(i)=Nred(i)/Nsum(i),取其最小值rmin=min(r(i)),通常紅色像素比率閾值rth可直接取為rmin,考慮到實(shí)際視頻中由于光照、圖片傾斜或車窗污染等原因,該值會有所降低而造成誤判,為了降低誤判概率,本文將rmin乘以適當(dāng)?shù)陌俜直圈?本文取φ=90%),即:

rth=rminφ。

(21)

圖5 HSV空間車窗紅色區(qū)域圖(右側(cè))Fig.5 Red area of windows in HSV color space

4實(shí)驗(yàn)結(jié)果及分析

本文以visual studio 2010為操作平臺,結(jié)合opencv2.4.8和Matlab 7.0對一段包含公交車的混合交通流視頻進(jìn)行測試,檢測流程如圖6所示,各項(xiàng)實(shí)驗(yàn)結(jié)果如下:

圖6 公交車輛視頻檢測流程Fig.6 Flow chart of bus video detection

4.1運(yùn)動目標(biāo)檢測實(shí)驗(yàn)

如圖7(a)和(b)所示,右側(cè)由上到下分別是三幀差分法、混合高斯法和本文檢測算法對比圖(二值圖),左邊是該種方法經(jīng)過連通域分析對應(yīng)的目標(biāo)檢測的效果圖(彩色圖)。

圖7 運(yùn)動目標(biāo)檢測結(jié)果Fig.7 Result of moving object detection

圖8 3種方法的前景圖Fig.8 The foreground picture of three methods

圖8中,由左到右依次為原始圖像、三幀差分、混合高斯和本文算法的前景圖,實(shí)驗(yàn)結(jié)果顯示三幀差分法只能夠提取運(yùn)動物體的輪廓,前景存在嚴(yán)重的空洞(如圖7(a)和(b)所示),不能通過尋找連通域來標(biāo)記和檢測運(yùn)動車輛,但是該方法能夠適應(yīng)背景的輕微變化,噪聲較少(如圖8所示)?;旌细咚狗óa(chǎn)生的空洞較少,因此能夠在一定程度上準(zhǔn)確地檢測運(yùn)動目標(biāo)的整體(如圖7(a)混合高斯法效果圖所示),但是受背景變化的影響,對運(yùn)動車輛的檢測存在不穩(wěn)定性,并且混合高斯法的噪聲(如圖7(a)和(b)混合高斯法前景圖所示)相對明顯。本文的方法結(jié)合了兩種方法的優(yōu)點(diǎn),有效地減小各自的缺陷,準(zhǔn)確地實(shí)現(xiàn)了對運(yùn)動車輛的檢測。

4.2分類器的訓(xùn)練實(shí)驗(yàn)

4.2.1樣本的提取及歸一化

樣本包括訓(xùn)練的正樣本和負(fù)樣本,本文選擇的正樣本是只包含公交車尾部區(qū)域的圖像,對選擇的正樣本進(jìn)行尺寸的歸一化,本文的正樣本圖像大小是45×45像素。負(fù)樣本是不包含公交車尾部區(qū)域的圖像,來自于視頻序列背景的截圖以及少部分其他類型車輛。最后獲得訓(xùn)練的正樣本1 128張,負(fù)樣本3 204張。

4.2.2Haar特征提取與訓(xùn)練

對采集的正樣本和負(fù)樣本進(jìn)行Haar特征的提取,通過Adaboost算法對特征進(jìn)行訓(xùn)練,最后獲得一個(gè)由14級強(qiáng)分類器組成的級聯(lián)分類器。

4.3公交車輛視頻檢測實(shí)驗(yàn)

首先,對運(yùn)動目標(biāo)前景檢測所獲取的感興趣區(qū)域的矩形框進(jìn)行放大(經(jīng)大量實(shí)驗(yàn)測試,放大倍數(shù)取2),將放大的感興趣區(qū)域轉(zhuǎn)為灰度圖像,使用本文的分類器和紅色像素檢測算法,得到最終的檢測結(jié)果。

對采集的多段包含公交車視頻的序列按照本文的方法進(jìn)行檢測,檢測部分結(jié)果如圖9所示:

圖9 公交車輛視頻檢測結(jié)果Fig.9 Detection results of bus video

檢測視頻中包括公交車123輛、小汽車101輛、大客車和貨車72輛、電動車42輛,識別結(jié)果如表1所示,其中準(zhǔn)確識別公交車115輛,小汽車、大客車和貨車、電動車錯(cuò)誤識別數(shù)分別為4、4、0,公交車識別率為93.50%,非目標(biāo)車輛誤檢率為3.72%。

表1 公交車輛視頻檢測結(jié)果

5結(jié)論

本文針對混合交通流里的公交車輛視頻檢測問題,首先采用了三幀差分和混合高斯法相結(jié)合的運(yùn)動前景提取算法,根據(jù)公交車輛面積和長與寬的比值相對其他車輛大的特點(diǎn),經(jīng)連通域處理,標(biāo)記運(yùn)動前景中感興趣區(qū)域,過濾掉兩輪車及部分小汽車等非目標(biāo)車輛?;贏daboost算法,用公交車尾部圖像訓(xùn)練出的分類器對感興趣區(qū)域進(jìn)行檢測,最后利用公交車輛車窗內(nèi)部具有特征顏色(紅色或綠色)車標(biāo)的特點(diǎn),對分類器檢測的結(jié)果進(jìn)行canny邊緣檢測,定位車窗區(qū)域,轉(zhuǎn)向HSV空間,統(tǒng)計(jì)特征顏色像素比率,與設(shè)定的像素比率閾值相比較,從而區(qū)分公交車輛與大客車車輛。實(shí)驗(yàn)表明,這種方法能夠較好地識別檢測出混合交通道路上的公交車輛。

參考文獻(xiàn):

[1]郭四玲,韋艷芳,時(shí)偉,等.公交車??繒r(shí)間的統(tǒng)計(jì)分析[J].廣西師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2006,24(2):5-9.

[2]梁乙朝. 公交信號優(yōu)先技術(shù)助力北京公共交通發(fā)展[J]. 公路交通科技,2011,28(S1):6-30.

[3]屈晶晶,辛云宏. 連續(xù)幀間差分與背景差分相融合的運(yùn)動目標(biāo)檢測方法[J]. 光子學(xué)報(bào),2014,43(7):1-8.

[4]袁國武,陳志強(qiáng),龔健,等. 一種結(jié)合光流法與三幀差分法的運(yùn)動目標(biāo)檢測算法[J].小型微型計(jì)算機(jī)系統(tǒng),2013,34(3): 668-671.

[5]王瑋,李紅波,吳渝. 一種運(yùn)動目標(biāo)陰影輪廓的兩步檢測算法[J]. 廣西師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,28(3):165-169.

[6]鄺先驗(yàn),王成坤,許倫輝. 基于組合前景提取的混合交通兩輪車輛視頻檢測[J]. 交通運(yùn)輸系統(tǒng)工程與信息,2014,14(5): 49-54,73.

[7]劉洋,王海輝,向云露,等. 基于改進(jìn)的Adaboost算法和幀差法的車輛檢測方法[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2013(S1):379-382.

[8]凌利. 基于視頻的公交車輛檢測技術(shù)研究[D]. 北京:北方工業(yè)大學(xué),2013.

[9]肖靜文,余志,聶佩林,等. 基于幾何與顏色特征的公交車輛視頻檢測算法[J]. 中山大學(xué)學(xué)報(bào)(自然科學(xué)版),2005,44(3):152-154.

[10]FREUND Y,SCHAPIRE R E. A desicion-theoretic generalization of on-line learning and an application to boosting [J]. Computational Learning Theory,1995(2):23-37.

[11]LIENHART R,MAYDT J.An extended set of Haar-like features for rapid object detection [C]//Proceedings of 2002 International Conference on Image Processing.Rochester, New York,USA:IEEE,2002:I-900-I-903.

[12]VIOLA,PAUL, JONES M J. Robust real-time face detection [J].International Journal of Computer Vision,2004(2):137-154.

[13]CARNICER M R,SALINAS M R,BOLIVAR Y E,et al. A novel method to look for the hysteresis thresholds for the Canny edge detector[J]. Pattern Recognition,2011,44(6):1201-1211.

[14]ZHONG Q U,LIN Lidan,GAO Tengfei,et al. An improved keyframe extraction methed based on HSV colour space[J]. Journal of Software,2013,8(7):1751-1758.

(責(zé)任編輯李小玲)

Bus Video Detection Based on Adaboost Algorithm and Color Feature

KUANG Xianyan,ZHU Lei,WU Yun,XU Chen

(School of Electrical Engineering and Automation, Jiangxi University of Science and Technology,Ganzhou Jiangxi 341000, China)

Abstract:A bus video detection method for urban public transport is proposed based on AdaBoost algorithm and window color feature. Firstly, the foreground detection method is used to find the motion of vehicle. This method is the "and" operation of two methods: three frame difference method of filtering and expansion and the mixed Gauss method after filtering, threshold method to remove shadow and expansion processing, whcih classifies vehicles in motion detected by the foreground detection algorithm into public transport vehicles, buses and other passenger vehicles, using the Adaboost algorithm and Haar feature training classifie. Compared with the large bus, the window of a public transport vehicle has obvious color characteristics indicating the bus lines and other information. The edge detection of canny operator and connected domain processing are used to locate the windows, then transfer the windows area into HSV color space, count the ratio of characteristic color pixels from windows area, and compare the ratio with threshold that has been set. If the ratio is larger than threshold, then believe it is a public transport bus, otherwise it is not. The experiments are performed using the traffic flow video that contains bus in a city. Experimental results show that, motion detection algorithm in this article has better adaptation with noise from video sequence than Three-frame differencing method or Gaussian mixture model. The threshold of connected domain processing and canny operator from a lot of video sequence contains bus lead to window positioning accuracy rate of more than 95%. Algorithm of characteristic color of windows can distinguish bus and motor coach effectively and accurately.

Keywords:intelligent transportation systems;bus vehicles;video detection;Adaboost algorithm;HSV color space

中圖分類號:U491.123

文獻(xiàn)標(biāo)志碼:A

文章編號:1001-6600(2016)01-0009-10

基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(51268017,61263024,61463020);江西省教育廳科技項(xiàng)目(GJJ13427)

收稿日期:2015-10-08

doi:10.16088/j.issn.1001-6600.2016.01.002

通信聯(lián)系人:鄺先驗(yàn)(1976—),男,江西南康人,江西理工大學(xué)副教授,博士。E-mail:xianyankuang@163.com

猜你喜歡
智能交通系統(tǒng)
智慧城市建設(shè)中智能交通系統(tǒng)關(guān)鍵技術(shù)概述
大數(shù)據(jù)背景下智能交通系統(tǒng)發(fā)展綜述
無線通信技術(shù)在智能交通系統(tǒng)中的相關(guān)應(yīng)用與研究
無線網(wǎng)絡(luò)技術(shù)在智能交通系統(tǒng)中的應(yīng)用研究
基于車牌定位的汽車擋風(fēng)鏡定位分割方法研究
基于洪泛查詢的最短路徑算法在智能交通系統(tǒng)中的應(yīng)用