譚光興 孫才茗 王俊輝
摘? 要:為增強(qiáng)車(chē)輛預(yù)警,解決行車(chē)狀態(tài)下前方車(chē)輛實(shí)時(shí)檢測(cè)問(wèn)題,構(gòu)建了一種基于方向梯度直方圖(HOG)特征與支持向量機(jī)(SVM)的視頻車(chē)輛檢測(cè)系統(tǒng).首先對(duì)提取HOG特征的步驟及SVM算法基本原理進(jìn)行研究,用拍攝的實(shí)際道路視頻對(duì)系統(tǒng)進(jìn)行測(cè)試;分別提取出正、負(fù)樣本集的HOG特征,用于SVM分類(lèi)器模板的訓(xùn)練;再計(jì)算待測(cè)視頻圖像HOG特征,送入分類(lèi)器中與訓(xùn)練好的模板比對(duì);最后用矩形框標(biāo)注出檢測(cè)到的車(chē)輛目標(biāo).測(cè)試結(jié)果表明:該算法能夠適應(yīng)復(fù)雜的行駛環(huán)境,實(shí)現(xiàn)高效、精準(zhǔn)的視頻車(chē)檢.
關(guān)鍵詞:車(chē)輛預(yù)警;方向梯度直方圖;支持向量機(jī);車(chē)輛分類(lèi)器;車(chē)輛檢測(cè)
中圖分類(lèi)號(hào):TP391.41? ? ? ? ? DOI:10.16375/j.cnki.cn45-1395/t.2021.01.003
0? ? 引言
城市的發(fā)展日新月異,道路交通早已是民生的重要組成部分,智能化交通系統(tǒng)亟待實(shí)現(xiàn)[1].視頻車(chē)輛檢測(cè)系統(tǒng)是智能交通系統(tǒng)的關(guān)鍵環(huán)節(jié)之一[2],應(yīng)用于交通領(lǐng)域的視頻車(chē)輛檢測(cè)主要分為基于運(yùn)動(dòng)信息與基于特征信息兩種方式[3].其中,基于運(yùn)動(dòng)信息的車(chē)輛檢測(cè)方法有光流法[4]、幀間差分法[5]、背景差分法[6]和高斯混合模型法[7]等.這些方法難以避免的缺陷是當(dāng)攝像機(jī)身處抖動(dòng)狀況、道路環(huán)境的光照發(fā)生變化時(shí)會(huì)使檢測(cè)結(jié)果產(chǎn)生誤差,并且較難排除檢測(cè)目標(biāo)所處環(huán)境的背景.基于特征信息的車(chē)輛檢測(cè)的方法是現(xiàn)階段視頻目標(biāo)檢測(cè)領(lǐng)域研究的熱點(diǎn)和重點(diǎn),各種車(chē)輛特征中,方向梯度直方圖(HOG)特征和Haar-like特征在車(chē)檢中效果穩(wěn)定,因此使用頻率較高[8-9].
基于Haar-like特征與Adaboost算法相結(jié)合來(lái)實(shí)現(xiàn)視頻車(chē)輛檢測(cè)[10],在簡(jiǎn)單場(chǎng)景下檢測(cè)效果較好,場(chǎng)景中的車(chē)輛幾乎都能較準(zhǔn)確地檢測(cè)出來(lái);但在光照和背景較復(fù)雜的行駛環(huán)境下,檢測(cè)效果較差,誤檢率較高.而與其他的目標(biāo)檢測(cè)方法相比,HOG特征對(duì)于圖像光強(qiáng)變化具備良好的抗干擾能力,對(duì)于目標(biāo)的描述具有較強(qiáng)的魯棒性[11],再加上向量機(jī)(SVM)算法表現(xiàn)出系統(tǒng)結(jié)構(gòu)簡(jiǎn)單、全局最優(yōu)、訓(xùn)練時(shí)間短等優(yōu)勢(shì)[12].因此,本文設(shè)計(jì)一種基于HOG特征與SVM的車(chē)輛檢測(cè)系統(tǒng),對(duì)待測(cè)樣本中本車(chē)前方車(chē)輛進(jìn)行識(shí)別.
1? ?HOG特征的提取
HOG特征的主旨思想即利用梯度或邊緣方向分布將待測(cè)圖像局部目標(biāo)的輪廓特征完整地表現(xiàn)出來(lái).由于HOG是從圖像局部區(qū)域的cell單元上提取各像素點(diǎn)梯度,因此,沒(méi)有嚴(yán)格的清晰度限制,降低了對(duì)拍攝視頻工具的要求,節(jié)約了成本[13].
HOG特征提取算法實(shí)現(xiàn)過(guò)程主要分為以下4步:
1)顏色空間的標(biāo)準(zhǔn)化
首先將整個(gè)圖像進(jìn)行Gamma標(biāo)準(zhǔn)化處理,gamma表示壓縮系數(shù),通常取值為0.5.這種壓縮處理能夠有效地降低算法對(duì)于光照的敏感性,提升算法對(duì)光照變化的穩(wěn)定性[14].Gamma壓縮公式為:
2)計(jì)算圖像梯度信息
圖像橫縱坐標(biāo)方向的梯度值分別求解出后,各個(gè)像素點(diǎn)的梯度方向值也相繼得出;求導(dǎo)操作不但可以得知形狀和部分紋理信息,還能再次削弱光照帶來(lái)的干擾.梯度在水平方向[[-1,? 0,? 1]]和垂直方向[[-1,? 0,? 1]T]算子下的定義為:
3)細(xì)胞(cell)的梯度方向直方圖
將圖像劃分為多個(gè)大小一致的細(xì)胞單元cell,cell又由更小的單位像素組成. 收集一個(gè)cell內(nèi)像素的梯度信息采用的是9個(gè)bin的直方圖,如圖1所示,每個(gè)方向塊為20°.在直方圖中cell內(nèi)所有像素點(diǎn)乘以梯度幅值進(jìn)行梯度方向的投影;再將它們的投影進(jìn)行求和,即得到一個(gè)cell的梯度方向直方圖.
4)塊(block)內(nèi)歸一化梯度直方圖
塊單元block是由每幾個(gè)cell組成的區(qū)塊,不同block之間可以存在重疊,圖像局部區(qū)域的HOG特征由它所包含的所有區(qū)塊構(gòu)成.進(jìn)行塊內(nèi)歸一化是必要的,主要為避免局部的曝光度等因素導(dǎo)致梯度值變化差距過(guò)大.歸一化過(guò)程如式(6)所示,[v]表示某block未歸一化的特征向量;[f]表示歸一化結(jié)果:
其中:[μ]為引入?yún)?shù),數(shù)值非常小,為了避免分母為0的情況.
2? ?SVM算法的分類(lèi)原理
2.1? ?超平面選擇
SVM學(xué)習(xí)的核心思想是求解同時(shí)滿足兩個(gè)條件的分離超平面,一是能夠?qū)τ?xùn)練樣本集進(jìn)行準(zhǔn)確劃分;二是分類(lèi)后的正、負(fù)樣本點(diǎn)與該面間隔最大,這樣的分離超平面存在是唯一的.N維空間中線性判別函數(shù)可用[fx=w?x+b]來(lái)表示,分離超平面線性方程為 [wT?x+b=0],如圖2所示.
先以線性可分的情況為例,給出特征空間上的一組訓(xùn)練樣本集:
將[f(x)=w?x+b]進(jìn)行歸一化,令全部正、負(fù)樣本都滿足[f(x)≥1],距離分離超平面最近的樣本有[f(x)=1],這樣分離幾何間距就為[2w],最大化分類(lèi)幾何間距相當(dāng)于最大化[1w],也就相當(dāng)于最小化[12w2],因此,SVM模型的最大分離超平面求解問(wèn)題也可轉(zhuǎn)化為以下約束最優(yōu)化問(wèn)題:
2.2? ?超平面求解
凸二次規(guī)劃問(wèn)題可利用拉格朗日對(duì)偶性來(lái)解決.原始目標(biāo)函數(shù)含有不等式約束,首先設(shè)法將其轉(zhuǎn)變?yōu)闊o(wú)約束,新組出拉格朗日目標(biāo)函數(shù)(見(jiàn)? ? ? 式(10)),[αi]為引入拉格朗日乘子,且[αi≥0].[Lw,? b,? α=12w2-i=1NαiyiwTxi+b-1]
等價(jià)于約束問(wèn)題:
3? ? 測(cè)試結(jié)果討論
3.1? ?實(shí)驗(yàn)環(huán)境
1)硬件環(huán)境:Intel Core i5-9400F CPU @2.9GHz 4.1GHz,8.0 GB運(yùn)行內(nèi)存,NVIDIA GeForce GT? 730入門(mén)級(jí)獨(dú)立顯卡.
2)軟件環(huán)境:操作系統(tǒng)為64位Win10系統(tǒng),在OpenCV開(kāi)發(fā)環(huán)境下利用Python3.6實(shí)現(xiàn).
3.2? ?實(shí)驗(yàn)數(shù)據(jù)
實(shí)驗(yàn)中用于SVM分類(lèi)器模板訓(xùn)練的樣本均為手工制作,利用拍攝的實(shí)際道路視頻采集出大量車(chē)輛樣本與非車(chē)輛樣本.其中,車(chē)輛樣本包含不同車(chē)型,如小型轎車(chē)、面包車(chē)、廂車(chē)與大型貨車(chē)等,顏色包括白色、紅色、藍(lán)色、黑色等;非車(chē)輛樣本來(lái)源于行駛環(huán)境中的植被、交通標(biāo)志物、欄桿、車(chē)道線及樓房等.正樣本數(shù)量為1 223張,負(fù)樣本數(shù)量為1 700張.部分正、負(fù)樣本如圖3所示.
3.3? ?車(chē)輛檢測(cè)流程
對(duì)HOG特征與SVM結(jié)合的檢測(cè)算法進(jìn)行有效性驗(yàn)證,測(cè)試過(guò)程可分為兩個(gè)模塊:1)訓(xùn)練模塊,主要包括分別提取正、負(fù)樣本的HOG特征,該過(guò)程中細(xì)胞單元取8×8個(gè)像素組成,塊單元取2×2個(gè)細(xì)胞組成,梯度方向角度劃分為9,一個(gè)塊的特征數(shù)為2×2×9;將得到的HOG特征用于分類(lèi)器模板的訓(xùn)練.2)檢測(cè)模塊,先計(jì)算出待測(cè)樣本的HOG特征,將其送入的SVM分類(lèi)器與檢測(cè)所用模板進(jìn)行對(duì)比,當(dāng)檢測(cè)出目標(biāo)車(chē)輛時(shí)便用矩形框進(jìn)行標(biāo)注.車(chē)檢流程如圖4所示.
3.4? ? 結(jié)果與分析
對(duì)算法的檢測(cè)性能進(jìn)行驗(yàn)證,圖5(a)—圖5(d)為隨機(jī)抽取的視頻檢測(cè)結(jié)果中的不同幀圖像.
從檢測(cè)結(jié)果中可以看出,車(chē)輛在城市道路上行駛時(shí),周?chē)h(huán)境復(fù)雜,同時(shí)還出現(xiàn)前方多輛車(chē)輛粘連等情況,增加了前方車(chē)輛識(shí)別負(fù)擔(dān)與難度.但基于HOG特征與SVM分類(lèi)器模板結(jié)合進(jìn)行分類(lèi)識(shí)別,排除各種非車(chē)輛物體的干擾,該算法仍有效檢測(cè)出前方車(chē)輛目標(biāo).
1)車(chē)輛檢測(cè)速率
對(duì)本文算法與其他基于圖像處理的車(chē)輛檢測(cè)方法進(jìn)行車(chē)檢速率的統(tǒng)計(jì),結(jié)果如表1所示.平均每幀耗時(shí)的計(jì)算方法為:先去掉選取的200幀中每幀耗時(shí)的最高值和最低值,再求剩余198幀視頻圖像的每幀耗時(shí)均值.由表1可得出,Haar與Adaboost結(jié)合的方式最慢,但3種方法的每幀耗時(shí)均值差別不大,都基本滿足實(shí)時(shí)檢測(cè)的要求.
2)車(chē)輛檢測(cè)準(zhǔn)確率
檢測(cè)率為正確檢測(cè)樣本數(shù)量與總測(cè)試樣本數(shù)量之比,誤檢率為錯(cuò)誤檢測(cè)樣本數(shù)量與總測(cè)試樣本數(shù)量之比.將本文算法與其他基于圖像處理的車(chē)輛檢測(cè)方法的準(zhǔn)確率進(jìn)行比較,結(jié)果如表2所示.
由表2可看出:本文算法較之其他傳統(tǒng)的車(chē)輛檢測(cè)方法提高了檢測(cè)率,降低了誤檢率;再結(jié)合表1的速率統(tǒng)計(jì)結(jié)果可以直觀地得出:本文的視頻車(chē)輛檢測(cè)方法在滿足基本的實(shí)時(shí)性情況下提高了車(chē)輛檢測(cè)的準(zhǔn)確率,具備較為理想的目標(biāo)檢測(cè)效果.同時(shí)與圖像識(shí)別領(lǐng)域中的深度學(xué)習(xí)算法相比,對(duì)硬件的計(jì)算能力要求不高,考慮成本因素,更容易實(shí)現(xiàn)大規(guī)模應(yīng)用.
4? ? 結(jié)語(yǔ)
本文提出的一種基于HOG特征與SVM算法相結(jié)合的視頻車(chē)輛檢測(cè)方法,能夠消除行駛環(huán)境中樹(shù)木、交通標(biāo)識(shí)、建筑物以及一些路面的影響,能有效地對(duì)視頻圖像中的目標(biāo)車(chē)輛進(jìn)行檢測(cè)和標(biāo)注;由于加強(qiáng)了前方車(chē)輛預(yù)警,在一定程度上使駕駛輔助系統(tǒng)的安全性能得到了保障.此算法在視頻車(chē)輛檢測(cè)率方面有一定的創(chuàng)新,與傳統(tǒng)的車(chē)輛檢測(cè)方法相比,在不犧牲檢測(cè)速率的情況下提升了車(chē)輛檢測(cè)的準(zhǔn)確率.在未來(lái)的研究中將對(duì)算法的實(shí)時(shí)性進(jìn)行更進(jìn)一步的優(yōu)化,以便推廣到實(shí)際的視頻車(chē)檢系統(tǒng)中.
參考文獻(xiàn)
[1]? ? ?王綱,李月榮,賈冬艷.大數(shù)據(jù)在城市智能交通中的應(yīng)用研究[J].辦公自動(dòng)化,2017,22(20):24-25.
[2]? ? ?張凱,李華文.一種基于SVM和HOG特征的視頻車(chē)輛識(shí)別算法[J].電子世界,2019(7):74-75.
[3]? ? ?NAVID N-V,BORGES P V K,ROBERTS J M,et al. On the use of optical flow for scene change detection and description[J]. Journal of Intelligent and Robotic Systems,2014,74(3-4):817-846.
[4]? ? ?耿慶田. 基于圖像識(shí)別理論的智能交通系統(tǒng)關(guān)鍵技術(shù)研究[D].長(zhǎng)春:吉林大學(xué),2016.
[5]? ? ?張延麗,李春貴.視頻車(chē)輛檢測(cè)中改進(jìn)的閾值分割算法研究[J].廣西科技大學(xué)學(xué)報(bào),2017,28(2):61-66,78.
[6]? ? ?MAO T Q,REN L R,YUAN F Q,et al. Defect recognition method based on HOG and SVM for drone inspection images of power transmission line[C]//2019 International Conference on High Performance Big Data and Intelligent Systems (HPBD&IS),Shenzhen,China,2019.DOI:10.1109/HPBDIS.2019.8735466.
[7]? ? ?薛圣利,蔡啟仲,楊海林,等.基于OpenCV的火車(chē)票識(shí)別算法[J].廣西科技大學(xué)學(xué)報(bào),2016,27(2):46-51.
[8]? ? ?崔春輝.基于單目視覺(jué)的車(chē)輛檢測(cè)算法研究[D].沈陽(yáng):東北大學(xué),2017.
[9]? ? ?MO W Y,GAO Y,ZHAO Q Y. Confusable vehicle feature extraction and recognition based on cascaded SVM[C]//2017 3rd IEEE International Conference on Computer and Communications (ICCC),Chengdu,2017.DOI:10.1109/CompComm.2017.8322918.
[10]? ?朱志明,喬潔.基于Haar-like特征與Adaboost算法的前方車(chē)輛辨識(shí)技術(shù)研究[J].電子測(cè)量技術(shù),2017,40(5):180-184.
[11]? ?HAN S J,HAN Y J,HAHN H. Vehicle detection method using haar-like feature on real time system[J].Chemistry, 2009,15(37):9521-9529.
[12]? ?周越.基于視覺(jué)的車(chē)道線識(shí)別研究[D].錦州:遼寧工業(yè)大學(xué),2019.
[13]? ?郭明瑋,趙宇宙,項(xiàng)俊平,等.基于支持向量機(jī)的目標(biāo)檢測(cè)算法綜述[J].控制與決策,2014,29(2):193-200.
[14]? ?王娜. 基于SVM算法的前方車(chē)輛視頻檢測(cè)[D].濟(jì)南:山東師范大學(xué),2016.