張起貴,張 妮
(太原理工大學信息工程學院,山西太原 030024)
近幾年,由于中國城市人口數(shù)量的快速增長,加快地鐵建設迫在眉睫,但伴隨而來的是在地鐵公共場所下乘客的安全隱患,如何快速辨識乘客異常行為,克服客觀環(huán)境因素造成的影響,成為視頻分析研究領域面臨的一大挑戰(zhàn)。目前,行為識別大多沒有針對某一種特定場景,而且檢測精度不夠。常用的行為辨識法主要有模板匹配法、基于規(guī)則識別法及狀態(tài)轉移圖模型法等,不僅計算量大,且需花大量時間訓練樣本庫,不具有對特定場景下異常行為檢測的針對性。
本文通過攝像機快速標定和魯棒性背景建模,基于軌跡關聯(lián)區(qū)域特征點的時空特性對異常行為進行表征,結合時空特性與形狀特性的方法來描述這一異常行為,提出了針對暈倒這一異常行為檢測模型,降低了計算量。
針對地鐵復雜場景下乘客的多變性行為,采用自適應混合高斯背景建模減少環(huán)境因素影響,為得到監(jiān)控畫面的精確度量,采用攝像機快速定標。如圖1所示,利用camshift算法實時跟蹤“軌跡關聯(lián)”區(qū)域的特征點,“軌跡”即為在連續(xù)視頻序列場景下軌跡關聯(lián)區(qū)域的特征點在時間序列上的點集,反映了個體特征點在時間序列上的時空位置及運動趨勢?!瓣P聯(lián)”則是針對于同一運動個體由于遮擋等問題產(chǎn)生的軌跡間斷,根據(jù)時空模板上的時空相關性,“關聯(lián)區(qū)域”即為同一運動個體在二維圖像像素坐標系中提取的時空興趣區(qū)域(輪廓、面積等),根據(jù)實際需求,選取軌跡關聯(lián)區(qū)域的特征像素點對異常個體行為進行表征。
圖1 異常行為辨識系統(tǒng)框圖
通過統(tǒng)計計算運動個體軌跡集合Ti,得到地鐵復雜場景下的運動軌跡區(qū)間,以此來建立上下文場景模型(見圖2)??臻g上下文指在地鐵特定場景下某些靜態(tài)設施,如地鐵站進口、出口、警戒黃線、場景內遮擋物等(結合半監(jiān)督方式標注)。時間上下文指在地鐵正常運行時間段內,視頻監(jiān)控與事件相關聯(lián)的各種時間約束,如列車的???、出發(fā)等。對象上下文指個體在運動軌跡區(qū)間,被表征的特征屬性集,如速度、運動方向等。約束參數(shù)上下文指約束監(jiān)測個體產(chǎn)生軌跡屬性集中所包含的特殊參數(shù)信息。
圖2 異常行為辨識系統(tǒng)框圖
為得到真實世界個體位移信息,及時得到監(jiān)控個體在軌跡區(qū)域的坐標[1],相機坐標建立如下:選定實際監(jiān)控的運動軌跡區(qū)域后,其與世界坐標系完全重合,H為相機高度,β為其繞X軸角度,X軸平行于XwYw平面,Zw軸垂直于XwYw平面,兩者坐標系關系為
在實際運動軌跡區(qū)間,利用真實世界坐標系的通道標記線等參考物由上式可自動獲取相機內部參數(shù)a與b,設2條長度為l,l'的運動軌跡區(qū)間的標記線,其兩端在像素坐標下的坐標為 (x1,y1),(x2,y2),(x3,y3),(x4,y4),世界坐標為(xw1,yw1),(xw2,yw2),(xw3,yw3),(xw4,yw4)。
在現(xiàn)實世界中,任何個體的運動都是時空關聯(lián)的,如圖3所示,設監(jiān)控畫面大小為m×n,視頻長度為t0,在t1與t2時刻,pi與p'i分別是軌跡關聯(lián)區(qū)域l×s的2個特征像素點。在連續(xù)跟蹤視頻幀中,若2個像素點經(jīng)二值化后像素為1,則2個特征像素點是時空關聯(lián)[2]。
在此基礎上,將個體軌跡用Ti表征,Ti表示在軌跡關聯(lián)區(qū)域各像素點特征屬性集,根據(jù)實際需要,可選取其中部分特征像素點(輪廓質心等)來表征運動個體軌跡,其軌跡特征屬性集為
圖3 軌跡關聯(lián)的camshift跟蹤
式中:pi為特征像素點;pisf和pief分別為特征像素點的起始幀與終止幀;pix和piy為特征像素點的坐標;pivx和pivy分別是特征像素點在監(jiān)測過程中x軸與y軸的速度分量;在某時刻ti,pisa為特征像素點在輪廓區(qū)域累積的面積;pih是特征像素點在不同色彩模式下的顏色分量;pia為各像素點時空特性在像素坐標系間的歐式距離。
在地鐵監(jiān)控場景下,由于建筑物的遮擋或目標運動速度過快,造成軌跡間斷,如圖3中的虛線,系統(tǒng)無法自動恢復跟蹤。為提高跟蹤效果,采用改進camshift算法[3-4]:
1)選取軌跡關聯(lián)區(qū)域pisa為tk-1時刻運動個體輪廓面積,經(jīng)過實驗,在380×240視頻圖像中,pisa≈3 000,在tk時刻,若pisa<thresholdarea,判定目標由于遮擋丟失,此時進行全局搜索,結合相比下的聯(lián)合多特征,利用幀間差分法進行軌跡填補。
可得到個體運動速度過快,需要重新調整搜索窗位置并實時跟蹤,在第k+1幀時,令
任何復雜異常個體行為是基本個體行為模型單元的集合,即底層目標檢測與跟蹤不可再細分的軌跡特征點。針對地鐵特定的場景下,常見異常行為主要包括:暈倒,可疑物品(超長超寬物品)攜帶入車站,跳躍刷卡器,乘客大量擁堵進、出口等。
本文針對因身體特殊原因或其他原因突然暈倒的異常行為進行檢測,以防引起踩踏事件,及時通知管理人員采取緊急措施。通過軌跡間斷、人體幾何形狀特征長寬比、形狀復雜度及輪廓匹配度對暈倒行為進行建模[5-6],建立其軌跡屬性集
1)在380×240圖像像素坐標系下,對視頻幀進行標定,如圖4所示,采用camshift算法搜索窗中心標定運動個體軌跡關聯(lián)區(qū)域特征像素點輪廓質心(picx,picy),當人體暈倒,質心發(fā)生變化,產(chǎn)生軌跡間斷pih=null。在連續(xù)視頻幀中,當監(jiān)控個體的運動方向滿足pic(x+i)<picx,pic(y+i)>picy或pic(x+i)>picx,pic(y+i)>picy,如圖5所示,在第114,128,145,172,185 幀中,Picc值逐漸增大且 ∑picc>threshold=60時,如表1所示,則判定人體重心連續(xù)下降,其中定義人體輪廓質心picc為
圖4 目標軌跡區(qū)域
圖5 camshift算法連續(xù)跟蹤
表1 監(jiān)控個體檢測數(shù)據(jù)表 像素
2)人在突然暈倒時,人體姿態(tài)發(fā)生劇烈變化,采用piawh與piscs分別度量人體幾何形狀特征長寬比與形狀復雜度。利用Snake[7]算法提取人體輪廓,pisa與pisc分別為其輪廓面積及周長。在第k+i幀時,設hk+i與wk+i分別為該時刻人體跟蹤外接矩形的高與寬,在第k幀時,其高與寬分別為hk與wk,則人體姿態(tài)變化程度為
經(jīng)實驗驗證,如圖6所示,在第114~185幀中,piscs較正常行走時姿態(tài)變化曲線出現(xiàn)較大波動,檢測數(shù)據(jù)如表1所示,在第128幀后,piawh<threshold=1。
圖6 連續(xù)視頻幀piscs值
3)為排除因跌倒或其他因素干擾,提高檢測準確度,通過Hausdorff算法獲得人體暈倒輪廓在連續(xù)時間段內匹配度。其中Hausdorff距離[8-10]是點集間相似量度,設有2 組點集 pia={pia1,pia2,pia3,…,piam},pib={pib1,pib2,pib3,…,pibn},其定義為
圖7 所示為人體暈倒原圖,取pif=185,190,195,200,205,連續(xù)提取人體輪廓邊緣(見圖8),本實驗設定匹配閾值為10,經(jīng) Hausdorff計算獲得其匹配度分別為0,2,4,1,說明此人長時間處于靜止狀態(tài),判斷暈倒行為已發(fā)生。經(jīng)實驗驗證,本文對20個不同個體的暈倒行為樣本進行檢測,檢測率為89.9%。
針對地鐵場景下的異常行為,本文詳述了視頻分析系統(tǒng)設計方案,選取軌跡關聯(lián)區(qū)域的特征像素點對運動個體行為進行表征,針對地鐵場景下的暈倒行為,通過軌跡屬性集對暈倒個體行為進行建模與檢測,經(jīng)實驗驗證,本文所提出的算法較為實用。但在暈倒行為檢測率方面還有待進一步提高。
圖7 人體暈倒原圖
圖8 經(jīng)snake處理后人體輪廓圖
:
[1]鐘志.基于異常行為辨識的智能監(jiān)控技術研究[D].上海:上海交通大學,2008.
[2]SALIGRAMA V,KONRAD J,JODOIN P M.Video anomaly identificationa statistical approach[J].IEEE Signal Processing,2010,27(5):18-33.
[3]YANG Bo,ZHOU Hongjun,WANG Xue.Target tracking using predict Camshift[C]//Proc.the World Congress on Intelligent Control and Automation.Chongqing:IEEE Press,2008:8501-8505.
[4]ZHANG Qigui,LI Bo.Research on tracking algorithm of moving target in complex background[C]//Proc.Third International Conference on Lecture Notes in Artificial Intelligence.Taiyuan:[s.n.],2011:433-439.