李亞文 趙 杰 張 鑫
(商洛學(xué)院電子信息與電氣工程學(xué)院 商洛 726000)
隨著多媒體信息的快速發(fā)展,由圖像序列構(gòu)成的視頻流,成為人們處理信息的主要對象[1],利用計算機模擬人類視覺來接收環(huán)境信息成為急需實現(xiàn)的技術(shù)[2],計算機視覺研究領(lǐng)域的一個核心方向就是目標(biāo)跟蹤,近幾年由于社會安全問題的突出,視頻監(jiān)控技術(shù)逐漸成為行業(yè)內(nèi)的研究熱點之一[2~3],目前研究的監(jiān)控視頻中的目標(biāo)跟蹤算法很多[2~5],主要是針對特定的應(yīng)用場景,缺少適用性,但目標(biāo)跟蹤是視頻圖像處理的基礎(chǔ),所以對視頻序列目標(biāo)跟蹤算法的研究很重要,也非常具有挑戰(zhàn)性。運動目標(biāo)跟蹤有很多的應(yīng)用,視頻監(jiān)控領(lǐng)域,醫(yī)療診斷和生物學(xué)研究,基于視頻的人機交互,自動駕駛及機器人領(lǐng)域[5~6]等。
國外對目標(biāo)跟蹤技術(shù)研究的比較早,20世紀(jì)中期,GAC公司研發(fā)了自動地形識別跟蹤系統(tǒng)ATRAN(Automatic Terrain Recognition and Naviga?tion)[4];在 1997年,美國國防高科技計劃局資助了研究項目 VSAM(Video Surveillance and Monitor?ing),該項目實現(xiàn)的是,對于復(fù)雜的重要區(qū)域中(如戰(zhàn)場)的人員,通過分布式網(wǎng)狀傳感器進行監(jiān)視,操作人員只需進行簡單的平臺操作[6];另外美國噴氣動力實驗室開展了5項關(guān)于目標(biāo)檢測跟蹤技術(shù)的研究項目。在2000年,DARPA建立了遠程人類識別計劃[7],包括著名的麻省理工大學(xué),加州理工大學(xué),卡內(nèi)基梅隆大學(xué)在內(nèi)的等15所大學(xué)和5個研究中心參與了該項目的研究。國內(nèi)對目標(biāo)跟蹤技術(shù)的研究相對落后一些。在1995年,華中科技大學(xué)研發(fā)的多模成像系統(tǒng),實現(xiàn)了對復(fù)雜背景下目標(biāo)的跟蹤、識別敵方干擾等工作[6],到2002年,對該系統(tǒng)進行了進一步的研究,實現(xiàn)了在復(fù)雜背景下對不同角度的目標(biāo)進行自動檢測和跟蹤[5-6]。南京理工大學(xué)開發(fā)了“庫區(qū)視頻智能監(jiān)控和跟蹤系統(tǒng)”,該系統(tǒng)采用MeanShift算法的跟蹤思路,對監(jiān)控范圍內(nèi)的目標(biāo)進行跟蹤。2002年~2003年,中國科學(xué)院模式識別國家實驗室成功舉辦了每年一次的智能視頻監(jiān)控會議,推動了國內(nèi)視頻監(jiān)控技術(shù)的快速發(fā)展[7]。
根據(jù)最近鄰估計法[8~9],首先需要給定 n 個樣本數(shù)據(jù),從這些樣本數(shù)據(jù)中得到概率密度函數(shù),特選定x為中心,使其不斷的擴大半徑,直到區(qū)域中包含至少有k個樣本數(shù)據(jù)為止(k是關(guān)于n的函數(shù)),于是得到x處的概率密度估計值。
建立目標(biāo)的顏色概率密度模[10]:令xi,i=1,…,n表示中心位于o點的模型像素點位置,然后通過離散的m維顏色直方圖來表示目標(biāo)顏色分布,令表示在點xi處的顏色集合。假設(shè)模型的大小是經(jīng)過規(guī)范化處理的,則核半徑r=1。顏色在模型中的概率q可由式(1)計算得到:
其中c是規(guī)范化常數(shù):
核函數(shù)K(x)是通過數(shù)據(jù)點到區(qū)域質(zhì)心距離大小來確定點的權(quán)值[10~11]。進一步對搜索區(qū)域進行表述:令 yi,i=1,…,m表示以y為中心的搜索區(qū)域中的像素點位置,并和上面的描述保持一致,顏色u在搜索區(qū)域中的概率p可表示為式(3):
其中ch是規(guī)范化常數(shù):
最后,通過匹配顏色概率密度來確定跟蹤目標(biāo)位置[11]。匹配過程使用Bhattacharyya系數(shù) ρ :
ρ的計算數(shù)值越大,表明目標(biāo)與搜索區(qū)域顏色概率密度越接近。
具體的MeanShift算法跟蹤原理實現(xiàn)框圖如圖1所示。
圖1 MeanShift算法跟蹤原理
選取錄制的一監(jiān)控段視頻ymq.avi,大約15s,將視頻轉(zhuǎn)化為多幀的圖像序列,選取其中的一些圖像幀,將目標(biāo)全可見圖像圈定跟蹤目標(biāo),用醒目的顏色方框標(biāo)識。對視頻中的運動人物進行跟蹤,在Matlab7.10中進行仿真實現(xiàn),查看目標(biāo)跟蹤的結(jié)果及運動軌跡。
圖2 基于Mean-shift算法的運動目標(biāo)跟蹤結(jié)果
實驗仿真中對打羽毛的人進行運動目標(biāo)跟蹤,首先在第4幀中手動確定了一個包含所有目標(biāo)特征的矩形框,將其內(nèi)容作為目標(biāo)模板。然后在后續(xù)幀中采用基于Mean-shift目標(biāo)跟蹤算法對其進行跟蹤。在打羽毛的球過程中,運動員的身體不斷地變化,由圖2中的實驗結(jié)果示意圖能夠看出,剛開始還能較好地跟蹤運動形態(tài)變換較小的人,但是當(dāng)運動目標(biāo)運動速度加快時,目標(biāo)中心點的定位會有較大的偏差,如圖2中第115幀和第222幀等所示??梢娫撍惴▽\動速度較快的目標(biāo)跟蹤不適用,容易導(dǎo)致目標(biāo)跟蹤失敗,因此提出了基于Cam?Shift算法進行視頻中的運動目標(biāo)進行跟蹤。
CamShift算法的主要針對MeanShift算法的缺點,對其改進了兩點[12~13],第一是可以對連續(xù)的圖像序列進行目標(biāo)跟蹤計算,第二是計算得到的目標(biāo)區(qū)域的大小是變化的,使其自適應(yīng)能力增加了。算法的主要思想[14]是利用目標(biāo)區(qū)域在HSV顏色空間的H分量直方圖作為目標(biāo)特征進行跟蹤的。先使用目標(biāo)的顏色直方圖模型把圖像換為顏色概率分布圖,初始化一個搜索窗口的大小和位置,然后根據(jù)上一幀得到的結(jié)果自適應(yīng)調(diào)整搜索窗口的大小和位置,找到當(dāng)前圖像中目標(biāo)的中心位置,之后自動更新窗口的中心、寬度,就能逐漸顯示出每一幀的圖像了。Camshift算法實現(xiàn)流程圖如圖3所示。
圖3 Camshift算法實現(xiàn)流程圖
本次實驗仿真采用一段截取的監(jiān)控視頻walk.avi,時長是 13s,幀率是 20幀∕s,首先獲得視頻的總幀數(shù),它的幀數(shù)是405幀,然后獲取視頻的初始幀,在其上面選取一個搜索窗口,搜索窗口的選擇要和背景顏色區(qū)分開來。仿真出來視頻的運動軌跡如圖4所示,隨著時間的延長,那個搜索窗口的質(zhì)心和大小會自動變化,跟蹤的結(jié)果是每10幀顯示一次,圖5~圖9是此次視頻中應(yīng)用Camshift算法實現(xiàn)對運動目標(biāo)進行跟蹤的結(jié)果。
從圖5~圖9可見隨著監(jiān)控視頻與目標(biāo)的距離拉大,能夠通過顏色概率值零階劇和一階矩的計算,自適應(yīng)的擴大搜索窗口,并對其進行了高效的跟蹤。實驗仿真的結(jié)果表明,Camshift算法很好地克服了由于導(dǎo)致當(dāng)目標(biāo)顏色與背景顏色相近時出現(xiàn)目標(biāo)丟失的問題,而且對于運動目標(biāo)變化較快的物體,也能實現(xiàn)較好的及時跟蹤。
圖4 視頻中跟蹤目標(biāo)的運動軌跡
圖5 第5幀跟蹤結(jié)果
圖6 第60幀跟蹤結(jié)果
圖7 第130幀跟蹤結(jié)果
圖8 第250幀跟蹤結(jié)果
圖9 第360幀跟蹤結(jié)果
目標(biāo)跟蹤是指通過分析視頻序列,在目標(biāo)檢測的前提下,對提取的目標(biāo)特征信息進行分析,然后通過選擇一種合適的匹配算法,得到前景目標(biāo)的有效特征信息,再對這些特征進行匹配,最終確定目標(biāo)的運動軌跡,實現(xiàn)目標(biāo)精確定位,得到目標(biāo)在一系列圖像序列中的聯(lián)系信息。在過去的幾十年里,機器人、國防、監(jiān)控、醫(yī)療、娛樂等行業(yè)的需求在強力推動著目標(biāo)跟蹤技術(shù)的進步。本文研究了Mean-shift算法對監(jiān)控視頻中的運動目標(biāo)進行跟蹤,實驗仿真結(jié)果表明,該算法對于視頻中運動目標(biāo)變化較快的物體容易出現(xiàn)跟蹤丟失,定位不準(zhǔn)確等問題,因此本文應(yīng)用CamShift算法對視頻中的運動目標(biāo)進行跟蹤,實驗仿真結(jié)果表明,CamShift算法能夠快速并高效地對視頻中目標(biāo)變化較快的物體進行跟蹤,具有很好的魯棒性,相信該算法一定可以在視頻監(jiān)控領(lǐng)域?qū)τ谶\動目標(biāo)的跟蹤方面得到廣泛的應(yīng)用,更好地為人們的社會公共安全方面做出貢獻。