王 瑞,種蘭祥
(西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院,陜西 西安 710127)
智能視頻監(jiān)控是信息產(chǎn)業(yè)未來最有發(fā)展前景的技術(shù)之一,其中通道口處人流量統(tǒng)計(jì)是該系統(tǒng)中具有實(shí)用價(jià)值的一項(xiàng)技術(shù)。在經(jīng)濟(jì)社會(huì),對(duì)商場、超市、交易場所進(jìn)行人流量統(tǒng)計(jì),能夠幫助商家分析市場和制定營銷策略。在公共安全方面,可以輔助檢測可疑人物的出入,這對(duì)于重要公共場所的安全防范有著重要意義。
目前有很多學(xué)者在進(jìn)行這方面的研究。Min Zhao[1]等人依據(jù)發(fā)色信息檢測人頭目標(biāo),該方法在人的著裝顏色與發(fā)色接近時(shí)會(huì)導(dǎo)致較高的誤檢率。Stan Birchfield[2]結(jié)合灰度梯度和彩色直方圖來估計(jì)人頭目標(biāo),但不適合復(fù)雜背景下的人頭檢測。于海濱[3]等人采用改進(jìn)的Hough變換檢測人頭類圓形目標(biāo),并結(jié)合模糊置信度的感知聚類方法去除虛假頭部輪廓,但該方法的計(jì)算復(fù)雜、實(shí)時(shí)性較差。而且已有研究大都是對(duì)通道入口或出口進(jìn)行單方向計(jì)數(shù),要求必須對(duì)入口和出口作出明確規(guī)定,即入口不能用作出口,反之亦然。本文提出的行人通道口雙向人流量計(jì)數(shù)方法能較好地克服這些缺陷。
行人的著裝顏色可能不同,然而頭頂部的發(fā)色相對(duì)穩(wěn)定。無論胖瘦、年齡和性別,所有人的頭頂部都是一個(gè)類圓形,且其大小差別不大。依據(jù)這兩個(gè)關(guān)鍵特征,可對(duì)采集到的人頭頂部圖像的發(fā)色和形狀創(chuàng)建模型,提取人頭目標(biāo)區(qū)域。
實(shí)驗(yàn)中,將攝像頭垂直安裝在通道上方[4]并選取最佳視角和焦距,如圖 1所示。
研究頭發(fā)的顏色,需要選擇恰當(dāng)?shù)牟噬臻g,使得發(fā)色在該空間中具有很好的聚類性。方法之一是歸一化RGB空間對(duì)發(fā)色聚類,建立二維高斯概率密度模型[5],但實(shí)驗(yàn)發(fā)現(xiàn)該方法并不理想,原因是頭發(fā)顏色的色差分量與亮度分量呈非線性的關(guān)系。YCbCr空間與人眼對(duì)色彩的感知一致,亮度色度分離[6]。本文將YCbCr空間作為發(fā)色檢測空間,使發(fā)色的聚類性不依賴于亮度,檢測效果良好。
在通常光照條件下,采集不同性別、年齡的亞洲人群發(fā)色,每張圖片大小為80×80像素,構(gòu)成發(fā)色圖像庫,圖2為庫中部分圖片。從中選取100張最能代表亞洲人典型發(fā)色的圖片,將每個(gè)像素點(diǎn)投射到Y(jié)CbCr彩色空間中,圖3(a)所示為所得發(fā)色像素點(diǎn)在YCbCr三維空間的分布情況。
為了確定發(fā)色像素點(diǎn)在Y、Cb、Cr分量上的分布范圍,按式(1)~(3)做如下計(jì)算
其中,Γi=[HYi,HCbi,HCri]T(i=1,2,…,N)是發(fā)色像素點(diǎn) Γi在YCbCr 空間的取值。 y(Γi)、cb(Γi)、cr(Γi)分別是發(fā)色像素投射到Y(jié)、Cb、Cr坐標(biāo)軸上的標(biāo)記函數(shù),N為發(fā)色像素點(diǎn)總數(shù)。f(y)是亮度Y的函數(shù),表示發(fā)色圖像中具有某亮度級(jí)的像素的個(gè)數(shù),反映了發(fā)色圖像中每種亮度出現(xiàn)的頻率,如圖 3(b)所示,橫坐標(biāo) Y是亮度分量,縱坐標(biāo) Number表示該亮度級(jí)出現(xiàn)的頻度。同理,f(Cb)和 f(Cr)分別是色度Cb、Cr的函數(shù),表示發(fā)色圖像中具有某種色度的像素的個(gè)數(shù),反映了發(fā)色圖像中每種色度出現(xiàn)的頻率,如圖3(c)、圖3(d)所示。發(fā)色在YCbCr空間具有非常好的聚類性,色差信息獨(dú)立于亮度信息,即使在大量(如黃色等)亮度值較高的淡色發(fā)色區(qū)域,也對(duì) HCb、HCr的分布范圍影響很小,于是有理由認(rèn)為 HY、HCb、HCr取值在發(fā)色聚類范圍的像素區(qū)域?yàn)榘l(fā)色區(qū)域。根據(jù)實(shí)驗(yàn)可得到HY、HCb、HCr的取值范圍分別是[0,70],[120,141],[120,141]。
根據(jù) HY、HCb和 HCr的取值范圍,式(4)即為發(fā)色提取原則,式(4)為1的點(diǎn)pi所在區(qū)域即為發(fā)色區(qū)域。對(duì)圖像再進(jìn)行形態(tài)學(xué)處理,消除其中的孤立點(diǎn)及毛刺,填補(bǔ)空洞。圖4所示為依據(jù)發(fā)色模型提取出頭部區(qū)域效果圖。
當(dāng)行人著裝與發(fā)色接近時(shí),僅依據(jù)發(fā)色模型難以準(zhǔn)確提取出頭部區(qū)域,需結(jié)合頭部形狀信息。將人頭頂看作類圓形,定義面積-長寬比模型。
為了保證本方法的有效性,對(duì)停留在入口或出口處某個(gè)范圍的行人不進(jìn)行計(jì)數(shù)。為此,本文在監(jiān)視區(qū)域內(nèi)設(shè)置虛擬線圈,如圖5中兩條白色標(biāo)記線之間的區(qū)域,系統(tǒng)只對(duì)進(jìn)出該區(qū)域的行人進(jìn)行計(jì)數(shù)。
檢測到虛擬線圈內(nèi)的人頭目標(biāo)后,便對(duì)目標(biāo)進(jìn)行外接矩形標(biāo)記,統(tǒng)計(jì)矩形框數(shù)目便得到當(dāng)前虛擬線圈中的行人數(shù)目。將虛擬線圈內(nèi)當(dāng)前目標(biāo)數(shù)設(shè)為輔助計(jì)數(shù)器,越過虛擬線圈的行人目標(biāo)數(shù)設(shè)為主計(jì)數(shù)器。當(dāng)輔助計(jì)數(shù)器的值發(fā)生變化時(shí),主計(jì)數(shù)器作出相應(yīng)變化,具體計(jì)數(shù)原理為:當(dāng)輔助計(jì)數(shù)器的值由n變?yōu)閙時(shí),主計(jì)數(shù)器增加(m-n),統(tǒng)計(jì)一定時(shí)間內(nèi)主計(jì)數(shù)器的值,即統(tǒng)計(jì)出了該段時(shí)間的單向人流量。
為了進(jìn)行雙向人流量統(tǒng)計(jì),本文提出人頭目標(biāo)鏈的概念,即將滿足某些運(yùn)動(dòng)特性的目標(biāo)以鏈表的形式連接成一個(gè)目標(biāo)序列。目標(biāo)鏈通常包含灰度、形狀、位置等運(yùn)動(dòng)參數(shù)。運(yùn)用這些運(yùn)動(dòng)信息能在當(dāng)前幀中檢測到的多個(gè)目標(biāo)中準(zhǔn)確找到與前一幀某目標(biāo)相匹配的同一個(gè)目標(biāo),為相似目標(biāo)之間的區(qū)分提供依據(jù)。目標(biāo)鏈既能提供目標(biāo)的歷史運(yùn)動(dòng)信息,也能預(yù)測下一幀該目標(biāo)的位置。目標(biāo)鏈的建立與更新通過鏈表操作實(shí)現(xiàn)。本文綜合考慮連續(xù)三幀中同一運(yùn)動(dòng)目標(biāo)質(zhì)心的速度和方向信息。利用運(yùn)動(dòng)速度的均勻性和運(yùn)動(dòng)方向的直線性做為度量來定義代價(jià)函數(shù) Si,k。
式中,i為目標(biāo)鏈編號(hào),k為目標(biāo)編號(hào) (k∈n,n為當(dāng)前幀目標(biāo)數(shù)目),t為當(dāng)前幀編號(hào),α為方向影響因子,β為速度影響因子。Di是方向光滑性函數(shù),反映了目標(biāo)運(yùn)動(dòng)方向的變化情況,Di越大目標(biāo)運(yùn)動(dòng)方向越接近直線。Vi是速度光滑性函數(shù),通過向量的幾何平均值與平均幅度之比來度量,反映了目標(biāo)運(yùn)動(dòng)速度變化情況,Vi越大目標(biāo)越接近勻速行走。對(duì)目標(biāo)鏈i,連續(xù)3幀的目標(biāo)構(gòu)成目標(biāo)序列Si=(pi,t-2,pi,t-1,pi,t)。定義序列中兩點(diǎn)的差分向量為Fi,t=pi,tpi,t-1,表示目標(biāo)從前一幀到當(dāng)前幀的行走位移向量。
對(duì)每幀圖像,計(jì)算各目標(biāo)鏈i和當(dāng)前幀所有目標(biāo)的代價(jià)函數(shù)Si,k,將同目標(biāo)鏈i中前兩幀目標(biāo)的代價(jià)函數(shù)最大的目標(biāo)加入目標(biāo)鏈i。這樣就可將當(dāng)前幀目標(biāo)和前兩幀目標(biāo)相關(guān)聯(lián),每條目標(biāo)鏈按時(shí)間順序記錄了同一目標(biāo)所有歷史位置信息,即該目標(biāo)的運(yùn)動(dòng)軌跡。當(dāng)前目標(biāo)在其下一幀中搜索到匹配目標(biāo)時(shí)更新目標(biāo)鏈,直至目標(biāo)在ROI中消失,根據(jù)2.2節(jié)中單向計(jì)數(shù)策略判斷監(jiān)控區(qū)域內(nèi)人頭數(shù)目,對(duì)比目標(biāo)鏈中存儲(chǔ)的目標(biāo)歷史位置信息和虛擬線圈位置判定目標(biāo)的行進(jìn)方向,進(jìn)而為相應(yīng)方向計(jì)數(shù)器計(jì)數(shù),刪除該鏈表。當(dāng)有新的目標(biāo)進(jìn)入ROI時(shí),為其重新分配一條目標(biāo)鏈,依次循環(huán)來記錄目標(biāo)的運(yùn)動(dòng)軌跡,從而統(tǒng)計(jì)出監(jiān)控區(qū)域的雙向人流量。
在學(xué)院樓門口采集視頻,幀大小為320×240,幀速為15 F/s,程序用Matlab 2010編寫??紤]到攝像機(jī)與人之間的距離和行人身高的差異都會(huì)影響人頭頂面積大小,設(shè)置面積閾值A(chǔ)min=100,Anax=1 000,在此之外都視為噪聲濾除。設(shè) r1=0.6,r2=3,α=0.5,β=0.5。本文規(guī)定圖中行人下行為A方向,上行為B方向;A方向計(jì)數(shù)器用于行人從上至下行走時(shí)計(jì)數(shù),B方向計(jì)數(shù)器用于行人上行時(shí)計(jì)數(shù)。圖5(a)~圖5(c)為單向統(tǒng)計(jì)人流量實(shí)驗(yàn)結(jié)果圖,圖中Num of ROI表示當(dāng)前虛擬線圈內(nèi)的行人數(shù)目,Num of Pedestrian表示經(jīng)過該區(qū)域的行人數(shù)目,圖 5(d)~圖 5(f)為雙向統(tǒng)計(jì)人流量實(shí)驗(yàn)結(jié)果圖,Num of ROI為當(dāng)前虛擬線圈內(nèi)行人數(shù)目,Num of direction A為A方向經(jīng)過該區(qū)域的行人數(shù)目,Num of direction B為B方向經(jīng)過該區(qū)域的行人數(shù)目。
將測量值與實(shí)際人流量之間的相對(duì)誤差作為誤檢率進(jìn)而計(jì)算正確率。經(jīng)過多次實(shí)驗(yàn),行人單向行走和雙向行走的統(tǒng)計(jì)結(jié)果如表1、表2所示。可以看出,利用本文算法單向統(tǒng)計(jì)人流量的平均正確率為98.73%,雙向統(tǒng)計(jì)的平均正確率為97.3%,高于傳統(tǒng)的基于紅外線和壓力傳感器的統(tǒng)計(jì)方法,高于參考文獻(xiàn)[3]中給出的89.6%的平均正確率,也高于參考文獻(xiàn)[7]中實(shí)驗(yàn)所得91.0%的正確率??梢娫摲椒ㄔ跐M足實(shí)時(shí)性要求的同時(shí)具有較高的正確率。應(yīng)用本文算法檢測人頭耗時(shí)0.028 5 s,用霍夫變換進(jìn)行人頭檢測需要0.977 4 s,可見應(yīng)用本文方法檢測人頭比霍夫變換快30多倍,滿足實(shí)時(shí)性要求。
表1 行人單向行走人流量統(tǒng)計(jì)結(jié)果
表2 行人雙向行走人流量統(tǒng)計(jì)結(jié)果
本文應(yīng)用計(jì)算機(jī)視覺的理論和方法,設(shè)計(jì)實(shí)現(xiàn)了人流量雙向統(tǒng)計(jì)算法和系統(tǒng),實(shí)驗(yàn)結(jié)果證明了該系統(tǒng)的實(shí)時(shí)性和有效性,較之前的方法和系統(tǒng)有明顯提高。該方法并不局限于人流量統(tǒng)計(jì),它對(duì)交通領(lǐng)域中的車流量統(tǒng)計(jì)也具有指導(dǎo)性意義。但該方法不適合于統(tǒng)計(jì)行人戴帽時(shí)的人流量,對(duì)于行人戴帽和特別擁擠等更為復(fù)雜情況下的人流量統(tǒng)計(jì)還需進(jìn)一步研究。
[1]Zhao Min,Sun Dihua,He Hengpan.Hair-color modeling and head detection[C].Proceedings of the 7th World Congress on Intelligent Control and Automation, Chongqing,2008:7773-7776.
[2]BIRCHFIELD S,Elliptical head tracking using intensity gradients and color histograms[C].IEEE Conference on Computer Vision and Pattern Recognition,California,1998:232-237.
[3]于海濱,劉濟(jì)林.應(yīng)用于公交客流統(tǒng)計(jì)的機(jī)器視覺方法[J].中國圖象圖形學(xué)報(bào),2008,13(4):716-722.
[4]ROSSI M,BOZZOLI A.Tracking and counting moving people[C].Proceedings of IEEE International Conference on Image Processing.Austin,Texas,USA:IEEE Computer Society,1994:212-216
[5]CHONG L,TATSEBG C,TECKKHIM N.Face tracking in video with hybrid of Lucas-Kanade and condensation[C].Proceedings of 2003 International Conference on Multimedia and Expo,Maryland,2003.
[6]王長軍,朱善安.基于顏色和變形模板的實(shí)時(shí)人體檢測[J].中國圖象圖形學(xué)報(bào),2006,11(6):861-866.
[7]靳晶,萬衛(wèi)兵,方濤.使用單目攝像頭的實(shí)時(shí)行人計(jì)數(shù)算法[J].計(jì)算機(jī)工程,2009,35(23):204-206.