李 娜, 陳俊艷, 劉 穎, 林慶帆
(西安郵電大學 通信與信息工程學院, 陜西 西安 710121)
基于骨架角點檢測的粘連車輛分割
李 娜, 陳俊艷, 劉 穎, 林慶帆
(西安郵電大學 通信與信息工程學院, 陜西 西安 710121)
給出一種基于骨架角點檢測的方法以實現(xiàn)視頻監(jiān)控中粘連車輛的分割。首先利用“火燒法”提取粘連車輛區(qū)域的骨架,并對骨架進行角點檢測,然后用K均值聚類方法對角點聚類,由聚類結(jié)果得出粘連車輛的分割線。利用50幅從實際監(jiān)控視頻中截取的圖片進行實驗,結(jié)果表明,所給方法可緩解過分割問題,并能在保證分割質(zhì)量的情況下,縮短分割時間。
車輛分割;骨架;角點
視頻監(jiān)控中運動目標檢測和跟蹤技術(shù)是計算機視覺和數(shù)字圖像處理中的一個重要的研究方向[1]。在單目攝像頭采集的條件下,道路的3D場景被轉(zhuǎn)換成2D圖像,造成車輛空間信息損失,容易產(chǎn)生車輛前景粘連,如果不能很好地將其分割,將直接影響跟蹤和統(tǒng)計的準確性。
利用車輛的角點作為特征點建立特征模型[2],可以解決粘連問題,但此算法在進行模型匹配時往往需要很大的計算量,而且對于場景的要求也比較高,特別容易受到復(fù)雜場景中不相關(guān)物體的影響。統(tǒng)計模型也是一種解決粘連的途徑[3],但所需參數(shù)值往往未知或不能被完全確定,在實際應(yīng)用中有一定難度。推理模型根據(jù)場景中車輛的位置軌跡等信息的先驗知識來解決粘連問題[4],但對于復(fù)雜交通場景,此算法尚不夠完備。采用分水嶺分割算法,可先用腐蝕方法標記所有區(qū)域,再用條件膨脹標記生長出分離區(qū)域[5],但其處理過程復(fù)雜,還易造成過分割的現(xiàn)象。
一個圖像的骨架是指圖像中央的骨骼部分,是描述圖像集合及拓撲性質(zhì)的重要特征之一[6]。角點是指圖像中邊界曲線上具有曲率極大值的點,在該點附近的灰度值會發(fā)生劇烈變化,它反映著一幅圖像的顯著特征[7]。骨架和角點都能以較少數(shù)據(jù)表示出圖像的重要特征。
本文擬針對已有方法計算量大或容易造成過分割等問題,利用骨架和角點,提出一種基于車輛骨架角點檢測的分割方法,簡稱骨架角點法,即先用“火燒法”提取車輛粘連區(qū)域的骨架,并用Shi-Tomasi角點檢測得到骨架角點,再用K均值聚類方法把角點分類,進而確定分割線。
1.1 檢測車輛區(qū)域
混合高斯背景是基于像素樣本統(tǒng)計信息的背景表示方法[8]。利用像素在較長時間內(nèi)大量樣本值的概率密度等統(tǒng)計信息(如模式數(shù)量、每個模式的均值和標準差)表示背景,然后使用統(tǒng)計差分原則進行像素判斷。
1.2 粘連車輛區(qū)域判斷
非粘連車輛的形狀在多數(shù)情況下表現(xiàn)為凸形,與外接矩形之間的空隙小,并且外接矩形的長寬比在一定的范圍內(nèi),如圖1(a)所示。粘連車輛與其外接矩形之間有較大間隙,并且其外接矩形的長寬比出現(xiàn)過大或過小的情況,如圖1(b)所示。骨架角點法利用車輛區(qū)域的占空比和外接矩形的長寬比來判斷是否存在車輛粘連。
(a) 粘連車輛 (b) 非粘連車輛
以Ac表示車輛區(qū)域的面積,Ar表示車輛區(qū)域外接矩形的面積,Ah表示是車輛區(qū)域外接矩形的高,Aw表示車輛區(qū)域外接矩形的寬,定義車輛區(qū)域的占空比為
外接矩形的長寬比為
對于非粘連車輛,Aa很大,而對于粘連車輛則較小。非粘連車輛圖像的Ab大小在一定的范圍內(nèi),而粘連車輛圖像的Ab要么偏大,要么偏小。
由經(jīng)驗設(shè)定一個面積比閾值A(chǔ)t,和一大一小兩個長寬比閾值A(chǔ)1、A2。當Aa>At且A1 (a) 前后粘連 (b) 左右粘連 1.3 骨架提取 以“火燒法”[6]提取二值圖像的骨架,即將目標邊界各處同時點燃,火的前沿以勻速向目標內(nèi)部蔓延,當前沿相交時火焰熄滅,以火焰熄滅點的集合構(gòu)成中軸,由此得出目標圖像的骨架。依據(jù)內(nèi)部點不能刪除、孤立點不能刪除、直線端點不能刪除以及去掉連通分量增加的點不能刪除4條原則,建立索引表。 對圖像任一邊界點P,將其8個鄰點對應(yīng)的二進制序列P0~P7(圖3)轉(zhuǎn)化成十進制數(shù)N。當索引表中第N個數(shù)為1時刪除該邊界點P,為0則不刪除。對所有邊界點進行此操作,直到?jīng)]有可刪除的邊界點為止。 圖3 邊界點及其鄰域分布 1.4 骨架的角點檢測 Shi-Tomasi角點檢測算法[7]是Harris算法[9]的改進,可用于檢測骨架角點。 對于圖像I(u,v),記 構(gòu)造局部結(jié)構(gòu)矩陣 用高斯濾波器HG進行平滑,得到 1.5 角點的聚類 利用K均值聚類算法[10]進行角點聚類:任意選擇兩個初始聚類中心;計算每個角點與兩個聚類中心之間的距離,把每個對象分配給距離它最近的聚類中心;利用聚類對象與聚類中心距離差分最小的原則重新調(diào)整聚類中心;經(jīng)前兩步迭代更新后,若各聚類中心保持不變,則迭代結(jié)束,否則繼續(xù)迭代。 該算法的關(guān)鍵在于距離公式的選擇,骨架角點法選擇歐式距離。 用高斯背景建模得到運動車輛前景,按圖4所示流程,確定車輛區(qū)域。 圖4 前景處理流程 判斷車輛區(qū)域是否存在粘連,如果存在,用“火燒法”提取骨架。所得骨架是單像素的,為了突出非關(guān)鍵點處的平滑性,先對其進行開運算,再進行角點檢測與提取。 對提取出來的骨架進行Shi-Tomasi角點檢測,并用K均值聚類方法把檢測出的角點聚類。 骨架角點法的整個算法流程如圖5所示。 圖5 骨架角點法算法流程 對粘連車輛區(qū)域判斷時,根據(jù)外接矩形長寬比可以判斷粘連區(qū)域?qū)儆谇昂筌囕v粘連還是左右車輛粘連。針對這兩種粘連形式,分別用不同的方法確定分割線。 (1) 前后粘連分割 對于前后粘連的車輛,兩類角點上下分離,而在垂直方向上沒有交集,用一條水平線就能把兩類角點分開。尋找位于上面的一類的位置最低的角點和下面一類位置最高的角點,在兩點中間處找一條水平線,即可作為分割線。 (2) 左右粘連分割 對于左右粘連車輛,兩車分割線并不是單純的垂直線段,而斜線居多。對于此類情況,可先找到兩類角點的聚類中心,用兩類聚類中心連線的垂直平分線作為分割線。 從西安郵電大學刑偵圖像處理中心數(shù)據(jù)庫[11]提供的視頻中,隨機截取50幀車輛前景圖像,基于VS2008平臺,結(jié)合OpenCV2.4.4庫進行實驗。 3.1 可行性 按照骨架角點法的算法流程,對其進行可行性實驗,所得部分結(jié)果如圖6所示。 (a) 車輛區(qū)域 (b) 車輛骨架 (c) 骨架角點 (d) 角點聚類 最終所得分割線如圖7所示,由此知利用骨架角點法能夠進行車輛粘連區(qū)域分割。 (a) 前后粘連 (b) 左右粘連 3.2 精確性 用骨架角點法與骨架節(jié)點法[12]對隨機截取的車輛圖像進行分割實驗,對比結(jié)果如圖8所示。 (a) 車輛粘連區(qū)域 (b) 骨架節(jié)點法分割效果 (c) 骨架角點法分割結(jié)果 骨架節(jié)點法把骨架節(jié)點簡單定義為骨架結(jié)構(gòu)上其8鄰域內(nèi)有3個非零像素點的點,利用節(jié)點水平和豎直方向的距離進行分組,進而確定分割線,但在單像素的骨架上尋找節(jié)點時,容易受噪聲干擾,從而影響分割效果。由圖8(b)可見,利用骨架節(jié)點法存在過分割的問題,左圖的兩輛車中,前車的部分輪廓被分到了后車,而右圖的兩輛車中右側(cè)的部分輪廓被分到了左車。骨架角點法對骨架進行了開運算處理,是對平滑骨架上的角點進行K均值聚類,之后確定分割線,故可抑制噪聲干擾。由圖8(c)可見,骨架角點法得到的分割效果可提高分割精確性,緩解過分割問題。 3.3 實時性 用骨架角點法與基于車輛邊緣的分割方法[13]對隨機截取的車輛圖像進行分割實驗,對比結(jié)果如圖9所示。 (a) 原始截圖 (b) 車輛邊緣法分割效果 (c) 骨架角點法分割效果 由圖9可見,在對原圖像進行分割方面,兩種算法都能達到一致的分割結(jié)果,但在時間方面,基于車輛邊緣分割的平均分割時間是23.76 ms,而基于骨架角點的平均分割時間為10.45 ms,前者的平均分割時間是后者的兩倍多?;谲囕v邊緣分割首先檢測出遮擋區(qū)域,并在遮擋區(qū)域搜索車輛邊緣,最后把遮擋區(qū)域的車輛邊緣作為分割線,但搜索遮擋區(qū)域和遮擋區(qū)域中的車輛邊緣相當費時,所以骨架角點法在實時性方面更具有優(yōu)勢。 針對監(jiān)控視頻中出現(xiàn)的車輛粘連問題,提出一種結(jié)合骨架和角點檢測的分割方法。實驗結(jié)果表明,該算法不僅能有效緩解過分割問題,還能在保證分割質(zhì)量的前提下,降低分割時間。 [1] 李娜,李大湘,劉穎. 基于多示例學習的目標跟蹤算法[J].西安郵電大學學報,2014,19(2):43-48. [2] Coifman B,Beymer D,Mclauchlan P, et al. A real-time computer vision system for vehicle tracking and traffic surveillance[J].Transportation Research Part C: Emerging Technologies, 1998, 6(8):217-288. [3] Huang chunglin, Liao wenchi. A Vision Based Vehicle Identification System[J]. IEEE Pattern Recognition, 2004,4(8):364-367. [4] Jung Y K, Lee K W, Ho Y S. Content based event retrieval using semantic scene interpretation for automated traffic surveillance[J]. IEEE Transactions on Intelligent Transportantion Systems, 2001,2(3):151-163. [5] Cloppet F, Boucher A. Segmentation of overlapping aggregating nuclei cells in bioimages[C] //Processings of the 19th International Conference on Pattern Recognition.[S.I.]:IEEE Press,2008:1-4. [6] 布達拉斯基,克勒. 學習OpenCV[M].于仕琪, 劉瑞幀,譯.北京:清華大學出版社,2012: 351-354. [7] 岡薩雷斯.數(shù)字圖像處理[M].2版.阮秋琦,阮宇智,譯.北京:電子工業(yè)出版社,2007:438-440. [8] 詹群峰.基于OpenCV的視頻道路車輛檢測與跟蹤[D].廈門:廈門大學,2009:20-40. [9] Laganiere R. OpenCV2計算機視覺編程手冊[M].張靜,譯.北京:科學出版社,2013:267-176. [10] 喬蔫, 姜慧霖, 賈世杰. 基于改進 K-means 聚類的案例檢索策略[J]. 計算機工程, 2011, 37(5): 193-195. [11] 劉穎,范九倫,李宗,等.現(xiàn)勘圖像數(shù)據(jù)庫檢索技術(shù)實例探討[J].西安郵電大學學報,2015,20(3):1-20. [12] 劉詩慧.視頻中粘連車輛的分割與跟蹤技術(shù)研究[D].哈爾濱:哈爾濱工程大學, 2013:16-26. [13] 張海濤,姚雪,劉萬軍.利用車輛邊緣的遮擋車輛曲線分割算法[J].計算機應(yīng)用研究,2014,31(7):191-196. [責任編輯:瑞金] Separation of merged vehicles based on detection of vehicles skeleton corner LI Na, CHEN Junyan, LIU Ying, LIN Qingfan (School of Communication and Information Engineering, Xi’an University of Posts and Telecommunications, Xi’an 710121, China) A separation method based on skeleton corner detection is proposed to solve the problem of merged vehicles in video surveillance. Firstly, the skeleton of the merged area is extracted by “fire method”, and the corners of the skeleton are obtained through corner detection. Secondly, the corners are clustered byK-means clustering method to get the splitting line of the merged-vehicles from the clustering results. Fifty images from surveillance video are used for the experiment as test data. Experimental results show that the proposed algorithm can not only effectively relieve the over-segmentation problem in merged-vehicle separation, but also reduce separation time needed. separation of vehicles, skeleton, corner 2014-12-31 國家自然科學基金資助項目(61202183);公安部科技強警基礎(chǔ)專項(2015GABJC51);陜西省國際科技合作計劃資助項目(2013KW04-05,2015KW-014);陜西省教育廳專項科研計劃資助項目(15JK1661);西安市碑林區(qū)應(yīng)用技術(shù)研發(fā)項目(GX1502);西安郵電大學研究生創(chuàng)新基金資助項目(CXL2014-16) 李娜(1981-),女,碩士,講師,從事目標跟蹤和行為檢測研究。E-mail:13873589@qq.com 陳俊艷(1989-),女,碩士研究生,研究方向為圖像視頻信號處理。E-mail:cjy_study@126.com 10.13682/j.issn.2095-6533.2015.06.004 TP391 A 2095-6533(2015)06-0014-052 算法流程
3 實驗結(jié)果及分析
4 結(jié)語