鄒錚 閆瑋 謝劍斌 劉通 李沛秦
摘要:面向人群場景中異常擁擠行為檢測,本文提出基于運(yùn)動(dòng)矢量的檢測方法。該方法首先采用運(yùn)動(dòng)矢量場提取人群運(yùn)動(dòng)特征;然后基于社會(huì)力模型計(jì)算運(yùn)動(dòng)矢量微粒之間的相互作用力;最后對(duì)相互作用力采用詞袋法實(shí)現(xiàn)行為判別。仿真實(shí)驗(yàn)表明,本算法可以區(qū)分人群場景中異常區(qū)域內(nèi)相互作用力的大小,對(duì)異常擁擠行為進(jìn)行判別和定位。
關(guān)鍵詞:運(yùn)動(dòng)矢量 擁擠行為 社會(huì)力模型 詞袋法
中圖分類號(hào):TP301 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2016)05-0000-00
Abstract:In this paper,the detection method based on motion vector is proposed to detect the abnormal crowded behabior in a crowd scene.In this method,the motion characteristics of the crowd are extracted by using the motion vector field;Then the interaction force between the particales is calculated based on the social force model;Finally,the interaction force is used to realize the behavior by the bag of words method.The simulation results show that the algorithm can distinguish the size of the interaction force between the abnormal regions in the crowd scene,identify and locate the abnormal congestion.
Key words: motion vector,crowd behavior,social-force model,bag of words
1 引言
擁擠人群行為分析在計(jì)算機(jī)視覺中是個(gè)新的研究方向,相關(guān)研究技術(shù)和視頻算法不斷更新,面向人群運(yùn)動(dòng)狀態(tài)的研究成為熱門應(yīng)用領(lǐng)域,譬如人群騷亂的快速預(yù)警、混亂行為的自動(dòng)識(shí)別、擁擠場景中異常行為區(qū)域的定位等。
擁擠場景中人群行為分析主要有三種方法:(1)對(duì)于行人個(gè)體行為判別的微觀方法,將群體視為由相互獨(dú)立的個(gè)體組成,群體行為是各個(gè)個(gè)體行為的集合表現(xiàn)[6]。為了分析群體目標(biāo)的行為,必須要對(duì)單個(gè)目標(biāo)進(jìn)行分割和提取[7]。該方法在分辨物體、追蹤軌跡、識(shí)別大密度群體行為等方面復(fù)雜性較高,效果較差。(2)基于人群群體運(yùn)動(dòng)的宏觀方法,將人群整體作為研究對(duì)象,提取人群整體的運(yùn)動(dòng)特征,建立模型,分析人群運(yùn)動(dòng)狀態(tài),但是無法對(duì)單獨(dú)個(gè)體的運(yùn)動(dòng)行為進(jìn)行判定。在Avidan[11]、Vasconcelos和Chan[8]等人的相關(guān)研究中,采用場景模擬技術(shù)取代個(gè)體追蹤技術(shù),分別用來獲取人群行為和交通車輛的特征。這是與微觀法截然不同的對(duì)密集人群的檢測方法。(3)基于微觀和宏觀的混合方法,對(duì)個(gè)體目標(biāo)和群體目標(biāo)同時(shí)進(jìn)行研究,如Ali和Shahs[3]提出的擁擠場景下行人的追蹤方法。Helbing等人提出基于社會(huì)心理學(xué)的社會(huì)力模型模擬行人行為[2],社會(huì)力能夠表現(xiàn)出行人與行人、行人與周圍環(huán)境的交互作用,屬于微觀方法。Helbing在著作中,結(jié)合社會(huì)恐慌群體模型和社會(huì)力模型,提出一種廣泛應(yīng)用模型[10],心理學(xué)和周圍環(huán)境的作用都被考慮用于群體行為分析,能夠較好的對(duì)人群行為進(jìn)行仿真。
文本首先對(duì)視頻幀進(jìn)行運(yùn)動(dòng)矢量提取處理,采用運(yùn)動(dòng)矢量場提取人群運(yùn)動(dòng)特征;然后基于社會(huì)力模型計(jì)算運(yùn)動(dòng)矢量微粒之間的相互作用力;最后對(duì)相互作用力采用詞袋法實(shí)現(xiàn)行為判別,圖1為本文算法流程圖。
2 社會(huì)力模型
通過分析行人的個(gè)人動(dòng)機(jī)和周圍環(huán)境約束條件,對(duì)社會(huì)力模型中的行人運(yùn)動(dòng)特性進(jìn)行研究[13]。假設(shè)在該模型中,有N個(gè)行人,第i人的質(zhì)量為,其速度的變化為:
實(shí)際作用力和個(gè)人動(dòng)機(jī)、環(huán)境約束有關(guān),包括兩部分:個(gè)人動(dòng)機(jī)產(chǎn)生的力,與周圍行人和環(huán)境相互作用產(chǎn)生的力。
人群中的行人總是追求環(huán)境中的某個(gè)目標(biāo)和目的地,每個(gè)行人都有一個(gè)希望的方向和速率。擁擠人群限制行人的實(shí)際運(yùn)動(dòng),實(shí)際運(yùn)動(dòng)速率將不同于希望速率?;趥€(gè)人動(dòng)機(jī)的作用力,行人傾向于達(dá)到其希望的速率。是松弛參數(shù)。
基于心理學(xué)的傾向考慮,相互作用力包括排斥和吸引力,在人與人之間保持一個(gè)合適的社會(huì)距離;相互作用力還包括環(huán)境作用力,避免撞到墻壁、建筑物和其它障礙。因此,可以定義為
在人群之中,行人之間由于存在關(guān)系或者具有好感而保持較小距離,由于對(duì)別人或者環(huán)境感到不舒服而保持較遠(yuǎn)距離。
通用的社會(huì)力模型針對(duì)恐慌事件的影響展開分析,譬如在某個(gè)危險(xiǎn)的事故之中,出現(xiàn)的集體逃離行為。此時(shí),行人的希望速率可以為:
其中,是恐慌權(quán)重參數(shù),是相鄰行人的平均速率。對(duì)于行人i,若突出個(gè)人行為,則;若突出群體行為,則。通用的社會(huì)力模型可以概括為:
通用的社會(huì)力模型是擁擠行為仿真研究的基礎(chǔ),不僅通過計(jì)算機(jī)圖形學(xué)[5],可以模擬出真實(shí)的擁擠場景;而且該模型的參數(shù)分析可以為有效控制群體運(yùn)動(dòng)提供有價(jià)值的動(dòng)態(tài)信息。
3 基于運(yùn)動(dòng)矢量計(jì)算的相互作用力估算
在原社會(huì)力模型中,主要光流法對(duì)運(yùn)動(dòng)人群的運(yùn)動(dòng)特征進(jìn)行提取,導(dǎo)致運(yùn)算數(shù)據(jù)大,運(yùn)算速度慢的情況,本文針對(duì)這個(gè)問題,提出了采用運(yùn)動(dòng)矢量提取人群運(yùn)動(dòng)特征的方法。運(yùn)動(dòng)矢量是儲(chǔ)存于高清壓縮視頻碼流中,通過直接提取運(yùn)動(dòng)矢量,可以提高運(yùn)動(dòng)特征的提取速度。
在H264壓縮視頻幀中,幀間預(yù)測宏塊模式包含7種,分別為(16×16)、(16×8)、(8×16)、(8×8)、(8×4)、(4×8)和(4×4),為了兼顧計(jì)算量與計(jì)算的準(zhǔn)確性,統(tǒng)一將其歸一化為(4×4)宏塊,我們稱為計(jì)算宏塊,以避免多宏塊帶來的影響。將每個(gè)計(jì)算宏塊視為一個(gè)微粒,采用計(jì)算宏塊的運(yùn)動(dòng)矢量表示微粒的運(yùn)動(dòng)狀態(tài)。(如圖2所示)
設(shè)為微粒i計(jì)算宏塊的運(yùn)動(dòng)矢量,也就是微粒i的實(shí)際運(yùn)動(dòng)速度。為計(jì)算宏塊周圍的有效時(shí)空平均值,采用相鄰計(jì)算宏塊的運(yùn)動(dòng)矢量的雙線性插值進(jìn)行計(jì)算,可以視為計(jì)算宏塊之間的平均速度。
4 異常擁擠行為判別
計(jì)算相互作用力決定了平流輸送微粒之間的協(xié)同配合,然而非連續(xù)的作用力并不能用來表明異?,F(xiàn)象。但是一段持續(xù)時(shí)間的持續(xù)力能夠做到。因此對(duì)于一個(gè)有m像素的連續(xù)移動(dòng)圖像幀,將其疊加,創(chuàng)建一個(gè)關(guān)于力流的特征矩陣。圖3表明四組不同運(yùn)動(dòng)人群視頻的相互作用力流,紅色區(qū)域表示高相互作用力,藍(lán)色區(qū)域表示低相互作用力。
對(duì)于力流的模擬是一個(gè)特殊的情景模擬過程,需要在計(jì)算機(jī)視覺中進(jìn)行學(xué)習(xí)。詞袋方法是一種典型的分析方法[12]。使用詞袋方法對(duì)可能性力流進(jìn)行估算,需要使用正常行為視頻進(jìn)行LDA訓(xùn)練。
首先采用LDA將連續(xù)T幀視頻幀的力流分割為塊,每塊成為單元處理模塊;然后從每個(gè)單元處理模塊中提取視覺單詞,從運(yùn)動(dòng)矢量非零區(qū)域隨機(jī)提取大小為的視覺單元;最后采用平均K值聚類方法集合成大小為C的編碼集合。
對(duì)于給定場景或相似場景組群的正常力流,設(shè)立集合,采用LDA判別人群行為的狀態(tài)分布。使用改進(jìn)的最大期望值(EM)算法[12],可以達(dá)到詞語包模型的最大可能性集合:
和是學(xué)習(xí)模型參數(shù)。通過使用這個(gè)模型,估算來自視頻組的每個(gè)單元處理模塊的可能值。通過基于估算可能值的相對(duì)應(yīng)閾值,判定視頻是否異常。
5 實(shí)驗(yàn)與討論
在UMN和WEB數(shù)據(jù)庫上對(duì)本文方法進(jìn)行驗(yàn)證[1],UMN數(shù)據(jù)庫包含3種不同的室內(nèi)和室外場景,由11個(gè)不同逃散事件情節(jié)組成。每個(gè)視頻包含最初的正常行為和最后的異常行為。WEB數(shù)據(jù)庫包含如行人步行、馬拉松長跑等12個(gè)正常人群場景序列和恐慌逃散、游行抗議和群體斗毆等8組異常行為場景。
圖4表明UMN視頻庫中三個(gè)不同場景中對(duì)于視頻幀中異常行為的判別定位,左圖為原始視頻幀,右圖為對(duì)應(yīng)的相互作用力判別幀,其中顏色較亮區(qū)域?yàn)楫惓P袨閰^(qū)域。通過對(duì)照比較原始幀與判別幀,本方法能夠有效判定和定位人群場景中的異常區(qū)域。
表1為本文方法與光流法對(duì)視頻幀處理的時(shí)間對(duì)比,表明圖片分辨率越高,處理速度越快。表2為在UMN視頻庫上不同算法的ROC曲線(receiver operating characteristic curve,受試者工作特征曲線)下的面積AUC值的對(duì)比,實(shí)驗(yàn)表明,本文方法對(duì)于異常行為的檢測高于Optical Flow算法[14]和1-NN算法[15]。
6 結(jié)語
本文提出了采用運(yùn)動(dòng)矢量和社會(huì)力模型判定人群異常行為的方法,本方法不需要對(duì)行人個(gè)體進(jìn)行提取、分割和追蹤。實(shí)驗(yàn)結(jié)果表明,本文方法區(qū)分和定位人群場景中的異常行為效果顯著,并且與原社會(huì)力模型相比,判別速度有明顯提升。
參考文獻(xiàn)
[1]J.Kim and K.Grauman.Observe locally,infer globally:A space—time MRF for detecting abnormal activities with incremental updates.In CVPR,2009.
[2] D. Helbing and P. Molnar. Social force model for pedestrian dynamics. Physical Review E, 51:4282, 1995.
[3] S. Ali and M. Shah. Floor fields for tracking in high density crowd scenes. ECCV, 2008.
[4] D. H. Anders Johansson and P. K. Shukla. Specification of the social force pedestrian model by evolutionary adjustment to video tracking data. Advances in Complex Systems,10(2):271–288, December 2007.
[5] E. A. S. G. M. L. Avneesh Sud, Russell Gayle and D. Manocha. Real-time navigation of independent agents using adaptive roadmaps. VRST 07:Proceedings of the 2007 ACM symposium on Virtual reality software and technology,pages 99–106, 2007.
[6] A. J. A. Jorge S. Marques, Pedro M. Jorge and J. M. Lemos. Tracking groups of pedestrians in video sequences. Computer Vision and Pattern Recognition Workshop, 9:101,2003.
[7] G. Brostow and R. Cipolla. Unsupervised bayesian detection of independent motion in crowds. Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on, 1:594–601, June 2006.
[8] A. B. Chan and N. Vasconcelos. Mixtures of dynamic textures. In ICCV 05: Proceedings of the Tenth IEEE International Conference on Computer Vision Volume 1, pages 641–647, Washington, DC, USA, 2005. IEEE Computer Society.
[9] N. Courty and T. Corpetti. Crowd motion capture. Comput. Animat. Virtual Worlds, 18(4-5):361–370, 2007.
[10] I. F. D. Helbing and T. Vicsek. Simulating dynamical features of escape panic. Nature, pages 487–490, 2000.
[11] P. Reisman, S. A. O. Mano, and A. Shashua. Crowd detection in video sequences. Intelligent Vehicles Symposium, 2004 IEEE, pages 66–71, June 2004.
[12] A. Y. N. David M. Blei and M. I. Jordan. Latent dirichlet allocation. Journal of Machine Learning Research, 3:993–1022, 2003.
[13] Mehran, R.; Oyama, A.; Shah, M., Abnormal crowd behavior detection using social force model[A].Computer Vision and Pattern Recognition, 2009, pp.935-942
[14] 杜鑒豪,許力.基于區(qū)域光流特征的異常行為檢測[J].浙江大學(xué)學(xué)報(bào)(工業(yè)版),2011,45(7):1161-1166.
[15] Cong Y,Yuan J,Liu J.Abnormal Event Detection in Crowded Scenes Using Sparse Representation[J].Pattern Recognition,2013,46(7):1851-1864.