戴光麟,許明敏,董天陽
(浙江工業(yè)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)
基于空間金字塔視覺詞袋模型的交通視頻車型分類方法研究
戴光麟,許明敏,董天陽
(浙江工業(yè)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)
摘要:為了提高交通視頻中車型分類的實時性和準確率,提出了一種基于空間金字塔視覺詞袋模型的車型分類方法.該方法利用SIFT進行車輛特征的提取,采用空間金字塔優(yōu)化車輛特征,在SVM分類器中引入車輛特征因子的視覺詞袋模型進行交通視頻車型分類.實驗結(jié)果表明:基于空間金字塔視覺詞袋模型的車輛分類方法不僅提高了車輛分類的準確率,也加速了車型分類過程.
關(guān)鍵詞:視覺詞袋;空間金字塔;智能交通;車型分類
智能交通系統(tǒng)(Intelligent transportation system,簡稱ITS)在交通和科技日益發(fā)展的今天得到凸顯,其中車型分類技術(shù)是重要的一個分支.現(xiàn)有的車型分類算法主要利用車輛顏色、紋理、形狀以及空間關(guān)系等特征進行識別,受限于車型姿態(tài)和環(huán)境變化,識別效率和精度較低,改進算法提高車輛分類效率成為當下研究的熱點.圍繞特征提取和分類技術(shù)進行車輛識別已有十多年的研究歷史,國內(nèi)外學(xué)者進行了很多研究工作,現(xiàn)有的車型分類方法主要有兩類.
傳統(tǒng)方法是基于車輛全局和局部特征的方法.比較典型的有Dgupte等[1]于2002年提出的車載攝像頭車型分類方法,但該方法致力于車輛陰影的處理,實際意義有限.Sun等[2]使用Gabor濾波提取車輛紋理信息,該方法在速度上達到了應(yīng)用水平,但在精度上不能讓人滿意.Chris和Mike等提出了一種Harris角點算法[3],是對Moravec角點檢測算子的一個擴展,但是該方法對噪聲干擾較為敏感.Arrospide等[4]使用HoG特征實現(xiàn)車輛分類,但計算量太大.Aditya等[5]使用邊緣特征結(jié)構(gòu)輸入到支持向量機方法進行分類,但只達到74%的準確率.針對傳統(tǒng)車型分類方法分類準確率低,近年來局部特征結(jié)合機器學(xué)習(xí)方法使得車型分類準確率得到提高.2013年,Meher等[6]使用PCA降維后進行SIFT車輛提取,然后輸入支持向量機進行分類.但是該方法的計算過程非常復(fù)雜,不能滿足車型實時分類的需求.其他的基于機器學(xué)習(xí)的算法如SVM分類模型的車輛識別[7],隨機馬爾可夫鏈模型[8],這些方法在實際使用中誤識別率較高,性能上也不能達到實時的效果.借鑒了文本分析的詞袋模型提出的圖形視覺詞袋模型(Bag of words, BOW)[9]廣泛使用于圖像檢索領(lǐng)域,但針對車型這類細分的圖像分類沒有研究.隨著局部特征結(jié)合機器學(xué)習(xí)算法的發(fā)展,基于機器學(xué)習(xí)車型分類方法中車型數(shù)據(jù)樣本高相似度和傳統(tǒng)方法對車輛外界影響關(guān)注少,容易導(dǎo)致誤分類的問題比較突出.為此提出了一種基于空間金字塔視覺詞袋模型的車型分類方法.在此基礎(chǔ)上,設(shè)計和實現(xiàn)了基于視覺詞袋模型的圖像分類系統(tǒng),并通過應(yīng)用和實驗驗證了方法能在兼顧時間和準確率的前提下有效地從視頻圖像中識別車輛和車型分類.
1面向交通視頻的視覺詞袋模型構(gòu)建
視覺詞袋模型源于文本分類技術(shù),假定對于一個文本看做單詞的集合,車輛看作文本對象,車輛中不同的局部區(qū)域特征看做文本中的詞匯,相近的特征作為一個單詞,所有單詞組合成為一個視覺詞典,把文本檢索和分類中的詞袋模型應(yīng)用到車輛分類中.視覺詞袋用于圖像分類可以跨越“語義鴻溝”的限制,在圖像識別中得到了廣泛的應(yīng)用.
面向交通視頻的視覺詞袋模型構(gòu)建過程如圖1所示.首先進行特征聚類,將SIFT提取的特征點聚類成特征,特征聚類結(jié)果即為視覺單詞.圖中不同形狀的圖像代表不同特征聚類后產(chǎn)生的單詞.然后對車輛的視覺單詞統(tǒng)計,統(tǒng)計結(jié)果變成視覺單詞直方圖.視覺直方圖即為車型的特征表達.以此類推,對相同類型車輛采用上述方式進行特征提取,最終繪制某類車型的直方圖.
圖1 視覺詞袋模型構(gòu)建過程Fig.1 The construction process of visual word bag model
1.1提取視覺特征
車輛特征提取作為車型識別的第一步,直接關(guān)系到后面聚類的效果.在所有車輛特征中,可以作為識別和區(qū)分車輛的特征包括車輛的外觀(長、寬、高),車輛的角點、邊緣特征.采用車輛外觀作為車型識別特征的方式有簡單、訓(xùn)練時間短的優(yōu)勢,但由于視頻中車輛是動態(tài)變化的,車輛外觀的形變,導(dǎo)致車輛外觀特征動態(tài)改變.早在2001年AHS等[10]提出了道路三維建模來獲得車輛外觀數(shù)據(jù),但是在實際中攝像頭角度和道路情況不同,道路三維建模的效果產(chǎn)生較大差異,無法做到自適應(yīng).綜合考慮提取復(fù)雜性、效果和車輛特征獨特性采用邊緣特征作為車型識別特征,使用SIFT(Scale-invariant feature transform)特征提取圖像局部信息,在圖像二維空間和DOG(Difference of gaussian)尺度空間中將檢測的空間和極值作為特征.其算子表達式為
D(x,y,θ)=(G(x,y,kθ)-G(x,y,θ))I(x,y)
(1)
式中:θ為尺度坐標;G(x,y,kθ)為高斯函數(shù)尺度可變表示;I(x,y)為圖像函數(shù).產(chǎn)生尺度空間的表達式為
L(x,y,θ)=D(x,y,kθ)I(x,y)
(2)
進行SIFT特征描述后形成圖像的特征映射,獲得圖片的特征點集,即feature列表.每個feature代表一個圖片的某個局部特征,每個feature的數(shù)據(jù)結(jié)構(gòu)由一個128維浮點數(shù)組表示.訓(xùn)練集所有圖像的SIFT特征構(gòu)成SIFT特征集R={r1,r2,…,ri,…,rn-1,rn},至此,訓(xùn)練集圖像轉(zhuǎn)換為SIFT特征.
SIFT局部特征具有平移、縮放和旋轉(zhuǎn)不變性,同時對光照變化、仿射及投影影響也有很好的魯棒性.如圖2所示,在不同環(huán)境角度下SIFT特征能夠?qū)崿F(xiàn)準確匹配.
圖2 SIFT實現(xiàn)特征匹配Fig.2 SIFT achieve feature matching
1.2獲取視覺單詞
(3)
由于一張車輛圖像中通常包含1000多個128維的特征點,因此在聚類過程中時間效率非常低,對于實時性要求較高的車型分類來說是絕對不允許的.另外,K-means算法基于歐氏幾何距離,容易陷入局部最優(yōu)解,并且其算法不穩(wěn)定[11].為了克服以上缺點引入精確歐式位置敏感哈希(E2LSH)[12]到隨機化視覺詞典,生成的流程如下:
1) 首先利用SIFT獲取車輛的特征集R={r1,r2,…,ri,…,rn-1,rn},其中,ri為對應(yīng)特征,n為對應(yīng)特征數(shù)量.
2) 將位置敏感函數(shù)g作用到SIFT特征集R,得到R中SIFT特征ri對應(yīng)的k維向量g(ri).
3) 計算ri的主哈希h1(g(ri))和次哈希值h2(g(ri)).
4) 將R中主、次哈希值都相同的特征放到同一個集合中.
利用E2LSH將R聚類后獲得哈希集合Tg={b1,b2,…,bk,…,bz-1,bz},聚類后每個中心視為一個詞典中的詞匯,獲取全部詞匯后就獲得了對應(yīng)的碼本(Code word),所有視覺詞匯形成一個視覺詞典,對應(yīng)一個碼書,即碼字的合集,通過統(tǒng)計視覺詞典的視覺直方圖對車輛進行分類.
1.3優(yōu)化視覺單詞
在獲得隨機化視覺詞典后,利用視覺單詞能夠區(qū)分車輛類型.但是,僅僅依靠視覺詞典分類是完全不夠的:直方圖是全局性的圖像視覺單詞的統(tǒng)計,但是沒有對單詞的位置特征加以關(guān)注.視覺單詞的空間位置關(guān)系作為車輛分類的重要依據(jù),特別是車型之間視覺單詞相似度很高,引入視覺單詞的空間位置關(guān)系尤為關(guān)鍵.引入空間金字塔模型到視覺詞袋模型中,有效提高車輛分類的表達能力,能夠提高分類準確率.具體操作過程如圖3所示.
圖3 視覺單詞分層優(yōu)化Fig.3 Hierarchical optimization of visual words
圖3中原始的圖片看做空間金字塔第0層,對該層圖像做視覺直方圖統(tǒng)計;然后將圖片均分成四張子圖片,該圖片為空間金字塔第1層,對該層圖像每個子空間進行直方圖統(tǒng)計;然后再對1層圖片進行4等分,均分成4份,得到空間金字塔第2層,對該層圖像每個子空間進行直方圖統(tǒng)計.在每個子層上迭代上述過程,并標記金字塔的層數(shù)Li.每一層占權(quán)重不同,越往后分,視覺單詞在每一區(qū)域的分布越清晰,但是時間效率也會相應(yīng)降低.在沒有引入空間金字塔之前,傳統(tǒng)的車輛分類方法大都采用矢量量化方法.統(tǒng)計視覺單詞wn在圖像中出現(xiàn)的次數(shù),其公式為
VQ={r(w1),r(w2),…,r(wn),…,r(wz-1),r(wz)}
(4)
(5)
那么得到第l兩張圖像間的直方圖相似度量公式為
(6)
金字塔分解體現(xiàn)了視覺單詞在圖像中的空間分布,而傳統(tǒng)的視覺直方圖側(cè)重于單詞在整幅圖像中的比重,兩種方式體現(xiàn)了對圖像特征的不同描述,兩者結(jié)合后整體和局部判斷結(jié)合,有效提高準確率,整體準確率為
(7)
1.4基于車輛視覺因子的直方圖分類
完成視覺直方圖統(tǒng)計后,每種車型得到圖4車輛特征直方圖.車輛分類的特點是樣本彼此的相似度和維度高,在車型分類多的情況下區(qū)分兩個車型的難度很大,這是與圖像類型檢索的一大區(qū)別.為了增強車型識別率,在直方圖中加入車輛特征因子(si{s1,s2,…,s5})以進行分類器的識別.共設(shè)定了五類視覺因子,分別是格柵、車燈、玻璃、引擎蓋和其他.不同類型車輛在特征聚類后獲得的車輛特征總類別規(guī)定后分類得到的結(jié)果是不同的,歸一化后獲得如下直方圖.如行人基本特征都落在其他一列,而公交車的擋風(fēng)玻璃面積較大,玻璃在所有因子中特別突出.
圖4 車輛特征直方圖Fig.4 Vehicle feature histogram
為了進一步明確特征直方圖和車型之間的關(guān)系,根據(jù)圖4繪制了圖5車輛因子折線圖.該圖將不同因子作為數(shù)據(jù)點,不同車型作為直線.可以直觀看出不同作用因子對車型的貢獻.為了最大程度區(qū)分車型,將最明顯的特征因子擴大兩倍max{si}×2,將影響最小的因子縮小兩倍min{sj}×0.5,拉開特征間的差距,使一類車輛能以最大程度落在某一車型中.然后將特征{max{si}×2,min{sj}×0.5,s1,s2,s3}作為分類器的輸入.
圖5 車輛特征因子Fig.5 Vehicle characteristic factor
2基于視覺詞袋的交通視頻車型分類方法研究
在對交通視頻中的車型進行分類時將視頻中提取的車輛特征因子輸入到分類器中.數(shù)據(jù)類型和使用環(huán)境一般能夠決定分類器的選擇,數(shù)據(jù)量而言如果數(shù)據(jù)集非常大,分類算法的選擇對最后的結(jié)果影響不大.由于交通視頻中車輛跟蹤和識別時需要對車型進行實時分類,對分類器在車型實時性上的要求非常高.另外在數(shù)據(jù)量上,由于獲得的特征為128維的特征向量,數(shù)據(jù)集特征多,對于分類器在大數(shù)據(jù)情況下的處理提出了要求.鑒于數(shù)據(jù)的特點,要求保證車型分類實時性的同時,盡可能提高分類準確率是我們分類的標準.
為此采用了支持向量機分類方法[13].相對于樸素貝葉斯分類器和K-近鄰算法,BOVW結(jié)合支持向量機效果較好[14].樸素貝葉斯算法利用概率來判斷樣本屬于某個類別的可能性,該算法特點是需要的參數(shù)很少,對缺失數(shù)據(jù)不太敏感,算法比較簡單.該算法成立條件苛刻,現(xiàn)實中無法滿足會導(dǎo)致結(jié)準確率下降.而K-近鄰算法是一種懶惰算法,這K個樣本屬于哪個類型多就屬于哪個類.在數(shù)據(jù)量大的情況下這種算法就不適用了.
Kotsiantis[15]從準確率、學(xué)習(xí)速度、分類速度、容錯率和噪點容忍度五個角度衡量三種分類算法的性能.車型分類中準確率和分類速度是最重要的因素,結(jié)果表明了SVM準確率和分類速度在3種分類算法中最高,由于SVM分類算法的復(fù)雜性決定了SVM學(xué)習(xí)速度較慢,學(xué)習(xí)階段是在分類階段前,這點是可以忍受的.
為了驗證3種算法在實際圖像分類的效果,下面實驗采用PASCAL VOC2016年數(shù)據(jù)進行分析.一共5類數(shù)據(jù),特征數(shù)15個,訓(xùn)練樣本300個,測試樣本900個.本實驗采用3種分類算法,分別從時間和準確率考量3種算法的特點.
下面對SVM建模簡單闡述:
1) SVM算法已有很多軟件包,采用大家使用較多的Chih-Jin教授編寫的LIBSVM軟件.
2) 在挑選核函數(shù)上,RBF核在不同的圖像分類中得到的效果都不錯,因此采用RBF核作為SVM分類器的核函數(shù).
3) 將上述數(shù)據(jù)特征作為分類器的輸入.
4) 將二類分類器擴展到N類分類,針對N類分類問題構(gòu)造N(N-1)/2個二分分類器,組合這些二分分類器使用投票法,投票最多的即為樣本所屬的類別.
K-近鄰算法和其他兩類算法不同的是該算法使基于實例的算法,即給定一個測試元組才開始構(gòu)造分類模型,故在時間上和下面兩類先訓(xùn)練再測試的算法差距較大,由實驗看出時間落后一個數(shù)量級.樸素貝葉斯和支持向量機是給定訓(xùn)練元組后,接收測試元組前就構(gòu)造好了分類模型,測試時間非常接近,在算法準確率上支持向量機略勝一籌,結(jié)合表1考量后發(fā)現(xiàn)支持向量機在能夠勝任實際車輛分類中實時準確分類的要求,因此在挑選分類算法中傾向于支持向量機.
表1三類分類算法實驗結(jié)果
Table 1Experimental results of three kinds of classification algorithms
算法K-近鄰正確率/%時間/s樸素貝葉斯正確率/%時間/s支持向里機正確率/%時間/s自行車79.642.169.97.892.14.2轎車69.429.7788.988.68.9摩托車87.734.7826.179.39.8行人86.139.681.94.390.15.1大巴90.744.479.77.496.98.0平均82.738.178.36.989.47.2
3實驗結(jié)果與分析
為了驗證該算法相比傳統(tǒng)機器學(xué)習(xí)方法在精度上得到了提升,將從多方面對改進的基于視覺詞袋模型的車輛分類算法進行評價:介紹數(shù)據(jù)集的來源;考察改進的聚類算法相比經(jīng)典聚類算法存在的優(yōu)勢;將加入空間金字塔算法與不加入時候進行比較;在實驗條件相同的情況下將該算法與近年來車型分類結(jié)果較好的兩類算法進行比較得出結(jié)論.
3.1數(shù)據(jù)集獲取
我們收集的數(shù)據(jù)集采用的圖像數(shù)據(jù)采集自本地普通道路,拍攝工具為非高清攝像頭.該視頻拍攝于下午天氣較一般情況,有陽光和陰天,像素在150×150左右.所有的訓(xùn)練和測試數(shù)據(jù)都來自本視頻,包含六類車輛,分別是公交車、卡車、SUV、面包車、轎車和行人.隨后采用無損壓縮扣取車輛圖片,其中570張公交車、568張卡車、589張SUV、562張面包車、609張轎車以及704張行人圖片,數(shù)據(jù)集示例如圖6所示.為了更好的模擬該場景下的車輛分類,我們沒有新增其他視頻中的車輛圖片進來.根據(jù)特征提取中獲得每類車型的特征向量集,分別為R1~R6,在此基礎(chǔ)上,根據(jù)視覺詞袋的算法流程,處理R1~R6,生成視覺詞袋.
圖6 實驗使用的數(shù)據(jù)集Fig.6 Dataset for experiment
3.2特征聚類
實驗采用上述提到的數(shù)據(jù)集,總共6類圖片,圖片像素在150×150 pixel.每類圖片采用200張作為訓(xùn)練集,40張作為測試集.圖7顯示采用SIFT特征提取方法后得到的特征點,左側(cè)為采用K-means聚類后得到的聚類點,右側(cè)為采用E2LSH得到的聚類點.藍色圓點是特征點,橘色三角是聚類結(jié)果.可以發(fā)現(xiàn)在E2LSH算法下獲得的視覺詞典更加松散,相比K-means聚類算法具有更好的圖像表達能力.在時間效率上,K-means聚類方法的時間復(fù)雜度為O(tKmn),其中:t為迭代次數(shù);K為簇的數(shù)目;m為記錄數(shù);n為維數(shù).而局部敏感哈希的時間復(fù)雜度為O(nρlogn)獲取特征點后采用E2LSH代替?zhèn)鹘y(tǒng)的聚類方法,得到了如圖7所示的效果.
圖7 兩類聚類效果對比Fig.7 Comparison of two kinds of clustering effects
3.3空間金字塔優(yōu)化
實驗數(shù)據(jù)集為上述提到自己采樣的數(shù)據(jù)集,對SUV、轎車和公交車進行訓(xùn)練和測試.各隨機選取300張作為訓(xùn)練集,100張作為測試集.實驗采用傳統(tǒng)基于視覺詞袋的分類算法(BOVW)與加入空間金字塔優(yōu)化后的算法(BOVW+SPCMK)進行比較.由表2可知:加入金字塔模型后,視覺詞袋模型的分類能力得到了有效的提高.
表2空間金字塔建模對視覺詞袋的影響
Table 2Influence of spatial pyramid modeling on visual word bag
%
3.4分類結(jié)果
使用基于視覺詞袋的分類算法與基于動態(tài)貝葉斯分類算法(Dynamic bayesian networks)[16]、K最近鄰(KNN,K-nearest neighbor)[17-18]分類算法進行比較,車輛樣本采用上述的數(shù)據(jù)集,為了公平起見,獲得了類似光照、角度和分辨率的數(shù)據(jù)集,在此基礎(chǔ)上對三類算法進行比較.在四類和六類車輛分類實驗中采用每類訓(xùn)練車輛200張圖片,測試圖片40張的方式進行實驗.在四類車輛分類實驗中,分類準確率如表3所示,車輛測試的分布結(jié)果如圖8(a)所示.由于類別只有四類,三種算法得到了較高精度.采用的算法在四類車輛中獲得了整體和每類車輛最高的準確率.同時,發(fā)現(xiàn)誤識別率較高的都是卡車被識別為了公交車.這也符合公交車和卡車在外形上較相似的特點.在六類車輛分類中方法也獲得了整體最高的識別率,分類準確率如表4所示,車輛測試的分布結(jié)果圖8(b).在時間效率上如表5所示,由于BOVW分類方法在車輛識別過程中采用分片聚類的方式,時間上并沒能超越主流算法,但就效果而言也在同一數(shù)量級.
表3 四類車型分類分布結(jié)果
圖8 車輛準確率直方圖Fig.8 Vehicle accurate rate histogram
Table 4Six types of vehicle classification results
%
表5 四類和六類車型時間耗費和識別率
4結(jié)論
從視覺詞袋入手,建立車輛提取、特征聚類、提取視覺詞袋和車型分類等一系列圖像模型,同時在特征點聚類時將K-means聚類方法替換成E2LSH方法,有效提高了聚類的效果.此外,以往車輛分類算法往往只考慮整體視覺直方圖的統(tǒng)計,在視覺加入金字塔模型提高了車輛的分類的準確率,同時在時間效率上提高了不少,滿足了智能交通系統(tǒng)高實時性的要求.本實驗針對車輛單一特征進行研究,沒有描述車輛其他特征.在實際生活中,車輛的多特征分類是車輛識別、分類的關(guān)鍵,今后要對車輛其他特征研究,以達到準確識別車輛的目的.
參考文獻:
[1]DGUPTE S, MASOUD O, MARTIN R F K, et al. Detection and classification of vehicles[J]. IEEE transactions on intelligent transportation systems,2002,3(1):37-47.
[2]SUN Z, BEBIS G, MILLER R. On-road vehicle detection using evolutionary gabor filter optimization[J]. IEEE transactions on intelligent transportation systems,2005,6(2):125-137.
[3]XU W, WANG S Z. Measurement o vehicle speed based on harris corner detector[J]. Journal of image and graphics,2006,11(11):1650-1652.
[4]ARROSPIDE J, SALGADO L, CAMPLANI M. Image-based on-road vehicle detection using cost-effective histograms of orineted gradients[J]. Journal of visual communication and image representation,2013,24(7):1182-1190.
[5]KANITKAR A R, BHARTI B K, HIVARKAR U N. Object calssification using encoded edge based structural information[C]//Journal of the American Statistical Association: Advances in Computing and Communications. Berlin Heidelberg: Springer,2011:358-367.
[6]MEHER S K, MURTY M N. Efficient method of moving shadow detection and vehicle classification[J]. AEU-International journal of electionics and communications,2013,67(8):312-320.
[7]周辰雨,張亞岐,李健.基于SVM的車輛識別技術(shù)[J].科技導(dǎo)報,2012(30):53-57.
[8]張昕,王松濤,張欣,等.基于馬爾可夫鏈的混合動力汽車行駛工況預(yù)測研究[J].汽車工程,2014,12(10):1216-1220.
[9]ZHAO R, GROSKY W I. Narrowing the semantic gap-improved text-based web document retrieval using visual features[J]. IEEE transactions on multimedia,2002,4(2):189-200.
[10]AHS Lai, GSK Fung, NHC Yung. Vehicle type classification from visual-based dimension estimation[J]. IEEE intelligent transportation systems,2001,25(29):201.
[11]高雪,謝儀,侯紅衛(wèi).基于多指標面板數(shù)據(jù)的改進的聚類方法及應(yīng)用[J].浙江工業(yè)大學(xué)學(xué)報,2014,42(4):468-472.
[12]李紅梅,郝文寧,陳剛.基于精確歐氏局部敏感哈希的協(xié)同過濾推薦算法[J].計算機應(yīng)用,2014,34(12):3481-3486.
[13]葉永偉,任設(shè)東,陸俊杰,楊超.基于SVM的汽車涂裝線設(shè)備故障診斷[J].浙江工業(yè)大學(xué)學(xué)報,2015,43(6):670-675.
[14]楊全,彭進業(yè).采用SIFT-BoW和深度圖像信息的中國手語識別研究[J].計算機科學(xué),2014,41(2):302-307.
[15]KOTSIANTIS S B. Supervised machine learning: a review of classification techniques[J] Informatica,2007,12(11):249-268.
[16]BHANU B, KAFAI M. Dynamic bayesian networks for vehicle classification in video[J]. IEEE trans onimage processing,2012,8(1):100-109.
[17]董天陽,阮體洪,吳佳敏,等.一種Haar-like和HOG特征結(jié)合的交通視頻車輛識別方法研究[J].浙江工業(yè)大學(xué)學(xué)報,2015,43(5):503-507.
[18]ZHANG C J, CHEN Y Z. The research of vehicle classification using SVM and KNN in a ramp[J]. International forum on computer science-technology and applications,2009,3(2):391-394.
(責任編輯:劉巖)
Research on vehicle classification method in traffic video based on spatial pyramid visual word bag model
DAI Guanglin, XU Mingmin, DONG Tianyang
(College of Information Engineering, Zhejiang University of Technology, Hangzhou 310023, China)
Abstract:In order to improve the real-time performance and classification accuracy of vehicle classification in traffic video, a new classification method based on space pyramid visual word bag model is proposed. The SIFT method is used to extract the features of vehicle and the vehicle features are optimized by the space pyramid model. The visual word bag model of vehicle feature factor is introduced in SVM classifier in order to classify vehicles in traffic video. The experimental results show that the vehicle classification method based on space pyramid visual word bag model not only improves the accuracy of vehicle classification, but also accelerates the process of vehicle classification.
Keywords:visual bag; space pyramid; intelligent transportation; vehicle type classification
收稿日期:2016-01-21
基金項目:國家自然科學(xué)基金資助項目(61202202)
作者簡介:戴光麟(1979—),男,浙江寧波人,講師,主要從事計算機網(wǎng)絡(luò)、無線傳感網(wǎng)和視頻圖像處理等,E-mail:dgl@zjut.edu.cn.
中圖分類號:TP391.2
文獻標志碼:A
文章編號:1006-4303(2016)03-0247-07