賈靜平, 夏 宏, 謝 萍
(華北電力大學(xué)控制與計(jì)算機(jī)工程學(xué)院, 北京 102206)
?
基于尺度空間粒子濾波器的多參考直方圖目標(biāo)跟蹤算法
賈靜平, 夏宏, 謝萍
(華北電力大學(xué)控制與計(jì)算機(jī)工程學(xué)院, 北京 102206)
摘要:在基于直方圖的序列圖像目標(biāo)跟蹤算法中,目標(biāo)的直方圖通常都是在跟蹤初始化時(shí)從目標(biāo)所在的區(qū)域獲得,然而單個(gè)直方圖難以適應(yīng)跟蹤全過程中目標(biāo)的各種變化。針對(duì)事先已知目標(biāo)幾種典型外觀的跟蹤問題,提出了一種基于粒子濾波器的多直方圖尺度空間跟蹤算法。利用多個(gè)典型直方圖的線性加權(quán)來表示目標(biāo)的直方圖,根據(jù)目標(biāo)的當(dāng)前區(qū)域估計(jì)加權(quán)系數(shù),生成下一幀的目標(biāo)概率分布圖,在目標(biāo)概率分布圖上運(yùn)用尺度空間粒子濾波器,來估計(jì)多尺度規(guī)范化Laplacian濾波函數(shù)的極值,從而實(shí)現(xiàn)目標(biāo)的定位。通過在真實(shí)序列上與現(xiàn)有算法的對(duì)比,表明了此算法不僅可以適應(yīng)目標(biāo)的色彩和明暗變化,而且能更準(zhǔn)確地描述目標(biāo)的大小,顯著提高跟蹤的精度。
關(guān)鍵詞:視頻跟蹤; 粒子濾波; 尺度空間; 特征更新
0引言
序列圖像中的目標(biāo)跟蹤是對(duì)圖像序列中感興趣的目標(biāo)進(jìn)行定位并分析其運(yùn)動(dòng)形態(tài)的技術(shù),是計(jì)算機(jī)視覺重要的研究課題,也是人機(jī)交互、視頻監(jiān)控、末端制導(dǎo)等許多應(yīng)用中的核心技術(shù)。對(duì)復(fù)雜真實(shí)背景中的目標(biāo)進(jìn)行跟蹤仍然是一項(xiàng)挑戰(zhàn)性的工作。跟蹤算法既需要能適應(yīng)目標(biāo)明暗、尺寸、姿態(tài)的變化,又需要解決被背景遮擋的問題。顏色直方圖因?yàn)橛?jì)算簡(jiǎn)單所以被許多跟蹤算法采用[1-5]。這類跟蹤算法利用Mean shift迭代過程在每一幀圖像中搜尋與目標(biāo)初始直方圖最相似的區(qū)域作為目標(biāo)在本幀中的位置。目標(biāo)的初始直方圖在跟蹤開始前由用戶或目標(biāo)檢測(cè)模塊給定的區(qū)域確定。盡管這類算法在目標(biāo)被部分遮擋等情況下非常健壯,但當(dāng)背景的光照條件發(fā)生變化,引起目標(biāo)的明暗發(fā)生變化時(shí),初始的直方圖會(huì)與目標(biāo)當(dāng)前實(shí)際的直方圖有很大差異,導(dǎo)致跟蹤出現(xiàn)誤差,甚至丟失目標(biāo)。
在進(jìn)行離線跟蹤或在特定場(chǎng)合對(duì)特定目標(biāo)進(jìn)行跟蹤時(shí),目標(biāo)典型的外觀是可以獲得的,通過這些典型的外觀可在直方圖空間中對(duì)目標(biāo)變化的全過程建立模型,從而避免初始直方圖偏離目標(biāo)實(shí)際外觀的問題。文獻(xiàn)[6]通過計(jì)算圖像區(qū)域與基于基圖像的特征空間表示間的參數(shù)變換,來確定目標(biāo)的視角及仿射變換,因?yàn)槭腔诠饬饔?jì)算的方法,所以沒有解決計(jì)算量大的缺點(diǎn)。文獻(xiàn)[7]提出了一種利用起始幀和終止幀中的目標(biāo)模板,在貝葉斯框架中估計(jì)目標(biāo)狀態(tài)的Bi-directional跟蹤算法,但只能用于離線跟蹤。文獻(xiàn)[8]提出了一種利用K-D樹存儲(chǔ)高度壓縮的圖像塊,利用動(dòng)態(tài)規(guī)劃合并多個(gè)跟蹤假設(shè)以獲得目標(biāo)最優(yōu)路徑的跟蹤算法,但沒有解決目標(biāo)尺寸變化的問題。文獻(xiàn)[9]使用貝葉斯圖模型描述目標(biāo)外觀的變化,使用在線EM算法估計(jì)模型的系數(shù),實(shí)現(xiàn)了對(duì)人體頭部的多視角跟蹤。文獻(xiàn)[10]以若干參考直方圖的線性加權(quán)和作為目標(biāo)的模型,實(shí)現(xiàn)了對(duì)目標(biāo)的多視角跟蹤(MCRH算法),但文獻(xiàn)[9]和文獻(xiàn)[10]2種方法均假設(shè)目標(biāo)大小固定。文獻(xiàn)[11]使用不同的觀測(cè)模型表示目標(biāo)的不同特征狀態(tài),并使粒子在不同的觀測(cè)模型之間進(jìn)行轉(zhuǎn)換以適應(yīng)目標(biāo)的特征變化,實(shí)現(xiàn)了對(duì)不同視角的頭部的準(zhǔn)確跟蹤(MOMPFT算法),但算法中只討論了2種觀測(cè)模型的情況,而粒子的數(shù)目隨著模型的數(shù)目成線性倍數(shù)增長(zhǎng)。
隨著目標(biāo)在攝像機(jī)坐標(biāo)系中位置的變化及姿態(tài)的改變,其在圖像中的尺寸也不斷改變。如果算法不能準(zhǔn)確描述目標(biāo)的大小,那么在更新目標(biāo)特征時(shí)就可能誤將背景像素作為目標(biāo)(目標(biāo)矩形框過大),或?qū)⒛繕?biāo)像素作為背景(目標(biāo)矩形框過小),引起目標(biāo)特征的漂移,導(dǎo)致跟蹤精度下降甚至丟失目標(biāo)。經(jīng)典的Mean shift跟蹤算法采用試探比目標(biāo)原尺寸大10%和小10%的方式來估計(jì)目標(biāo)當(dāng)前的尺寸[3,5](Comanciu算法),誤差較大。文獻(xiàn)[1]和文獻(xiàn)[12]通過計(jì)算反向投影圖或Mean shift算法中間過程的權(quán)重圖的矩來確定目標(biāo)尺寸(CamShift算法和SOAMST算法),但當(dāng)背景中存在于目標(biāo)顏色接近的干擾時(shí),精度下降。文獻(xiàn)[13]通過對(duì)目標(biāo)形心進(jìn)行配準(zhǔn),然后抽取特征點(diǎn)對(duì)并計(jì)算仿射變換的伸縮幅值,從而確定對(duì)應(yīng)目標(biāo)大小的Mean shift過程的核窗寬(ASKB算法)。文獻(xiàn)[14-15]通過Mean shift過程在權(quán)重圖像的Lindeberg尺度空間表示中交替迭代以尋找極值點(diǎn),從而決定合適的核窗寬,由于受到Mean shift本質(zhì)是局部最優(yōu)算法的限制,這些算法并不保證每次都收斂到最佳的核窗寬。
上述算法在描述目標(biāo)外觀特征變化,以及確定目標(biāo)尺寸這2方面存在不足,針對(duì)前者本文提出以目標(biāo)典型外觀為基礎(chǔ),以多參考直方圖的線性加權(quán)來描述目標(biāo)的顏色特征,并最大化目標(biāo)新位置處直方圖與混合直方圖間的相關(guān)系數(shù)以適應(yīng)目標(biāo)特征的變化。針對(duì)后者,本文提出將尺度空間理論與粒子濾波方法結(jié)合,利用粒子的多樣性和尺度計(jì)算的準(zhǔn)確性獲得對(duì)目標(biāo)位置、尺寸準(zhǔn)確而又魯棒的觀測(cè)。
1多參考直方圖特征
(1)
(2)
式中
圖1 混合直方圖的生成
(3)
式中,u=1,…,m。ε為防止除零和零對(duì)數(shù)的微小正常數(shù)。PL將目標(biāo)特有的顏色映射為正值,背景特有的顏色映射為負(fù)值,兩者共有的趨近于零。通過PL對(duì)圖像反向投影就可得目標(biāo)概率分布圖Ilikelihood,如圖 2所示。在目標(biāo)概率分布圖中,目標(biāo)所在區(qū)域呈現(xiàn)為灰度值更高的灰度塊,臨近的背景區(qū)域則被抑制。
圖2 目標(biāo)概率分布圖的生成
2尺度空間粒子濾波器
在粒子濾波的框架中,目標(biāo)跟蹤可以被看作是帶有隱藏狀態(tài)變量的馬爾科夫模型中的推理任務(wù)[18]:
(4)
式中,xk是目標(biāo)在時(shí)刻k時(shí)的狀態(tài);Zk={z1,z2,…,zk}是觀測(cè)的集合。本文以目標(biāo)的中心位置坐標(biāo)(r,c)和尺度t作為目標(biāo)的狀態(tài),即xk=[r,c,t]。文獻(xiàn)[19]通過實(shí)驗(yàn)數(shù)據(jù)擬合出目標(biāo)寬度w和尺度t之間的換算公式為
t=(13+(w-34)×0.476 19)2
(5)
(6)
(7)
式中,var(D)為D的方差。第i個(gè)粒子的權(quán)重可由重要性采樣得出:
(8)
(9)
3跟蹤算法
對(duì)于輸入的每一幀圖像,利用前一幀中得到的目標(biāo)和背景特征,得到本幀的目標(biāo)概率分布圖,然后運(yùn)用尺度空間粒子濾波方法計(jì)算目標(biāo)的位置和大小,并獲得更新后的特征,從而完成跟蹤。本文提出的目標(biāo)跟蹤算法具體步驟如下:
步驟 5根據(jù)公式(9)更新粒子權(quán)值,并歸一化。
4對(duì)比實(shí)驗(yàn)與分析
為了驗(yàn)證本文提出算法的性能,我們?cè)谡鎸?shí)序列上進(jìn)行了大量實(shí)驗(yàn),并將本文算法和近幾年提出的算法進(jìn)行了對(duì)比。首先我們驗(yàn)證了本文算法對(duì)目標(biāo)明暗變化的適應(yīng)性。圖 3顯示了本文算法,IVT[20],L1APG[21],MIL[22]以及OpenTLD[23]算法對(duì)一個(gè)玻璃瓶跟蹤的對(duì)比結(jié)果。玻璃瓶先在光照較亮處運(yùn)動(dòng),隨后從第50幀開始進(jìn)入陰影,表面迅速變暗,顏色特征發(fā)生劇烈變化,同時(shí)離開攝像頭,逐漸縮小,隨后從第170幀又開始離開陰影并靠近攝像頭。圖 3從上至下,從左至右依次顯示了序列的第1,88,136,154,221,280幀,其中綠色點(diǎn)劃線方框?yàn)镮VT結(jié)果,藍(lán)色點(diǎn)線方框?yàn)長(zhǎng)1APG結(jié)果,黑色劃線方框?yàn)镸IL結(jié)果,白色雙點(diǎn)劃線方框?yàn)镺penTLD結(jié)果,紅色實(shí)線方框?yàn)楸疚奶岢龅乃惴ǖ慕Y(jié)果。隨著目標(biāo)的變化L1APG首先在目標(biāo)高度上出現(xiàn)了較大誤差,第200幀左右MIL算法一度有很大偏差,但本文提出的算法始終很好地定位了目標(biāo)。圖 4給出了幾種算法在目標(biāo)中心位置精度上的定量比較結(jié)果。表1列舉了幾種算法在目標(biāo)中心位置誤差上的統(tǒng)計(jì)數(shù)據(jù),本文算法在誤差的平均值和標(biāo)準(zhǔn)差上都取得了最小值。
圖3 玻璃瓶跟蹤的對(duì)比結(jié)果
本文算法在玻璃瓶序列中使用了目標(biāo)的2個(gè)參考直方圖。選定第1幀(光照較亮處)中的目標(biāo)區(qū)域來獲取參考直方圖1,選定第148幀(光線較暗處)中的目標(biāo)區(qū)域來獲取目標(biāo)的參考直方圖2,圖 5顯示了在跟蹤過程中參考直方圖系數(shù)α1和α2以及混合直方圖相關(guān)度的變化曲線。可見當(dāng)目標(biāo)處在較明亮的環(huán)境中時(shí),參考直方圖1的系數(shù)α1>α2,第50幀后目標(biāo)逐漸進(jìn)入陰影區(qū),直方圖2的α2也逐漸增大,第150幀左右目標(biāo)完全處于陰影區(qū)中,此時(shí)α2>α1。隨后目標(biāo)退出陰影,并再次進(jìn)入陰影,反映在α1和α2大小的再一次交替變化。相關(guān)度低時(shí)說明目標(biāo)位置所在處的圖像直方圖和混合直方圖之間相關(guān)值下降,這是在目標(biāo)從一種典型外觀過渡到另一種典型外觀的過程中發(fā)生的正?,F(xiàn)象。目標(biāo)的典型外觀來自第1和第148幀,所以圖5中顯示的相關(guān)值在第1和第148幀附近取得接近于1的峰值。
圖4 玻璃瓶序列的定量比較結(jié)果
圖5 玻璃瓶序列參考直方圖系數(shù)變化
接著我們驗(yàn)證了算法對(duì)目標(biāo)多視角變化的適應(yīng)性。圖6顯示了本文算法,OpenTLD,IVT,L1APG以及MIL對(duì)David序列的跟蹤對(duì)比結(jié)果,人臉是被跟蹤的目標(biāo)。其中綠色點(diǎn)劃線方框?yàn)镮VT結(jié)果,藍(lán)色點(diǎn)線方框?yàn)長(zhǎng)1APG結(jié)果,黑色劃線方框?yàn)镸IL結(jié)果,白色雙點(diǎn)劃線方框?yàn)镺penTLD結(jié)果,紅色實(shí)線方框?yàn)楸疚奶岢龅乃惴ǖ慕Y(jié)果。從上至下從左至右依次為第1,261,309,410,459,713幀。目標(biāo)從光線昏暗處逐漸走向光線明亮處,在此過程中出現(xiàn)逆光,并且轉(zhuǎn)向,只露出臉的側(cè)面。第450幀之前各算法基本都能較好地定位目標(biāo),之后目標(biāo)以側(cè)面的視角出現(xiàn),使得IVT、L1APG和MIL的精度受到明顯影響,甚至丟失了目標(biāo)。在這個(gè)序列上本文算法和OpenTLD較好地定位了目標(biāo),表1顯示本文算法在中心位置誤差方面小于OpenTLD。圖 7顯示了在此序列上跟蹤過程中各類算法在目標(biāo)中心位置精度上的定量對(duì)比。
圖6 David序列跟蹤的對(duì)比結(jié)果
圖7 David序列的定量比較結(jié)果
本文算法選取了序列中第143幀(光線較暗),第330幀(光線較亮),第455幀(側(cè)面視角)和第710幀(逆光)中的目標(biāo)區(qū)域建立了4個(gè)參考直方圖,圖 8顯示了各直方圖系數(shù)及混合直方圖相關(guān)度的變化過程,在建立4個(gè)參考直方圖的幀附近,曲線出現(xiàn)峰值。初始時(shí)目標(biāo)特征最接近參考直方圖1,反映為α1最大,450幀左右呈現(xiàn)側(cè)面視角時(shí)α3最大,660幀以后逆光時(shí)α4最大,這說明混合直方圖很好地捕捉了目標(biāo)特征變化的過程。由于在目標(biāo)位置和大小和姿態(tài)方面的誤差,一些背景像素不可避免地會(huì)影響直方圖之間的相關(guān)值,使其小于1,但通過增加典型外觀的數(shù)目,相關(guān)度曲線可逼近于1。
最后我們驗(yàn)證了算法對(duì)尺度變化的準(zhǔn)確性。圖 9顯示了本文算法,Comanciu[3],MCRH[10],MOMPFT[11],SOAMST[12],以及ASKB[13]算法對(duì)“Camera2c”序列中的汽車的跟蹤對(duì)比結(jié)果。其中綠色劃線方框?yàn)镸OMPFT結(jié)果,藍(lán)色點(diǎn)線方框?yàn)镃omanciu結(jié)果,黑色點(diǎn)劃線方框?yàn)镾OAMST結(jié)果,品紅色雙點(diǎn)劃線方框?yàn)锳SKB結(jié)果,青色短點(diǎn)劃線方框?yàn)镸CRH結(jié)果,紅色實(shí)線方框?yàn)楸疚奶岢龅乃惴ǖ慕Y(jié)果。從上至下從左至右依次為第396,406,415,425,433,446幀。此序列中的汽車先迅速靠近鏡頭,使得目標(biāo)迅速放大,但隨后又消失在視野中,大小迅速縮減到零。由于目標(biāo)尺度的快速變化導(dǎo)致SOAMST在第408幀中丟失目標(biāo),MCRH在第421幀時(shí)丟失目標(biāo),Comanciu、MOMPFT和ASKB雖能定位目標(biāo),但中心位置、寬度、高度方面誤差與本文算法相比均較大,如圖10、圖11和圖12所示。
圖8 David序列參考直方圖系數(shù)變化
圖9 Camera2c序列跟蹤的對(duì)比結(jié)果
圖10 Camera2c序列目標(biāo)寬度誤差定量比較
圖11 Camera2c序列目標(biāo)高度誤差定量比較
圖12 Camera2c序列中心位置誤差定量比較
表2表明本文算法在此序列上取得了最小的目標(biāo)寬度平均誤差和最小寬度誤差標(biāo)準(zhǔn)差,ASKB雖在高度誤差上小于本文算法一個(gè)像素,但在寬度上誤差很大。綜合這些數(shù)據(jù),可以看出本文算法在描述目標(biāo)尺度變化方面優(yōu)于表2中其余算法。
表1 幾種算法在目標(biāo)中心位置誤差上的性能比較像素
表2 幾種算法在目標(biāo)寬度高度誤差上的性能比較像素
圖13顯示了本文算法,Comanciu[3],CamShift[1],MCRH[10],以及MOMPFT[11]算法對(duì)“變色縮放方框”序列的跟蹤對(duì)比結(jié)果。被跟蹤的方框一邊運(yùn)動(dòng),一邊縮放,同時(shí)顏色從紅色變?yōu)樗{(lán)色。圖中,藍(lán)色虛線為Comanciu的結(jié)果,綠色劃線為MOMPFT的結(jié)果,青色虛線為MCRH結(jié)果,黃色點(diǎn)劃線為CamShift的結(jié)果,黑色實(shí)線為本文提出算法的結(jié)果。由于目標(biāo)顏色特征的改變,只有MOMPFT和本文算法能實(shí)現(xiàn)完整跟蹤,但MOMPFT在目標(biāo)大小描述上有很大誤差。
圖13 “變色縮放方框”序列跟蹤的對(duì)比結(jié)果
5結(jié)論
本文利用多個(gè)參考直方圖的線性加權(quán)來描述目標(biāo)的多種可能狀態(tài),通過權(quán)系數(shù)的修改實(shí)現(xiàn)對(duì)目標(biāo)光照,顏色特征,以及視角變化的自適應(yīng)。同時(shí)提出了利用多尺度規(guī)范化Laplacian濾波函數(shù)來計(jì)算粒子權(quán)重以將尺度空間理論融入到粒子濾波的框架中的方法,實(shí)現(xiàn)了對(duì)目標(biāo)位置和尺度精確而魯棒的估計(jì)。在多個(gè)序列上和現(xiàn)有算法的對(duì)比實(shí)驗(yàn)驗(yàn)證了本文所提出算法的性能。本文算法本質(zhì)上屬于有監(jiān)督學(xué)習(xí)的范疇,如何確定適合的參考直方圖數(shù)目可作為進(jìn)一步研究的內(nèi)容。
參考文獻(xiàn):
[1] Bradski G R. Real time face and object tracking as a component of a perceptual user interface[C]∥Proc.oftheFourthIEEEWorkshoponApplicationsofComputerVision,1998:214-219.
[2] Birchfield S. Elliptical head tracking using intensity gradients and color histograms[C]∥Proc.oftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition, 1998:232-237.
[3] Comaniciu D, Ramesh V, Meer P. Kernel-based object tracking[J].IEEETrans.onPatternAnalysisandMachineIntelligence, 2003, 25 (5):564-577.
[4] Pérez P,Hue C,Vermaak J, et al. Color-based probabilistic tracking[C]∥Proc.ofthe7thEuropeanConferenceonComputerVision, 2002:661-675.
[5] Comaniciu D, Ramesh V, Meer P. Real-time tracking of non-rigid objects using Mean shift[C]∥Proc.oftheIEEEConferenceonComputerVisionandPatternRecognition, 2000:142-149.
[6] Black M J, Jepson A D. Eigentracking:robust matching and tracking of articulated objects using a view-based representation[J].InternationalJournalofComputerVision, 1998, 26 (1):63-84.
[7] Sun J,Zhang W,Tang X, et al. Bidirectional tracking using trajectory segment analysis[C]∥Proc.oftheIEEEInternationalConferenceonComputerVision, 2005:717-724.
[8] Buchanan A, Fitzgibbon A. Interactive feature tracking using KD trees and dynamic programming[C]∥Proc.oftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition, 2006:626-633.
[9] Tu J L,Tao H,Huang T. Online updating appearance generative mixture model for meanshift tracking[C]∥Proc.oftheAsianConferenceonComputerVision,Springer,2006:694-703.
[10] Leichter I, Lindenbaum M, Rivlin E. Mean shift tracking with multiple reference color histograms[J].ComputerVisionandImageUnderstanding, 2010, 114 (3):400-408.
[11] An G C, Gao J P, Wu Z Y. Particle filter algorithm for head tracking based on multi-observation models[J].JournalofImageandGraphics,2009(1):106-111(安國成,高建坡,吳鎮(zhèn)揚(yáng). 基于多觀測(cè)模型的粒子濾波頭部跟蹤算法[J]. 中國圖象圖形學(xué)報(bào), 2009(1):106-111.)
[12] Ning J, Zhang L, Zhang D, et al. Scale and orientation adaptive Mean shift tracking[J].IETComputerVision, 2012, 6 (1):52-61.
[13] Peng N S,Yang J, Liu Z, et al. Automatic selection of kernel-bandwidth for mean-shift object tracking[J].JournalofSoftware,2005,(9):1542-1550.(彭寧嵩,楊杰,劉志,等.Mean-Shift跟蹤算法中核函數(shù)窗寬的自動(dòng)選取[J].軟件學(xué)報(bào),2005(9):1542-1550.)
[14] Collins R T. Mean-shift blob tracking through scale space[C]∥Proc.oftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition, 2003.
[15] Wang Y X, Zhang Y J, Wang X H. Mean shift object tracking through 4-d scale space[J].JournalofElectronics&InformationTechnology, 2010, (7):1626-1632.(王宇雄,章毓晉,王曉華. 4-D尺度空間中基于Mean-Shift的目標(biāo)跟蹤[J]. 電子與信息學(xué)報(bào), 2010, (7):1626-1632.)
[16] Jia J P, Zhang F Z, Chai Y M, et al. New feature adaptive high precision video tracking algorithm[J].SystemsEngineeringandElectronics,2008,30(11):2255-2258.(賈靜平,張飛舟,柴艷妹,等.特征自適應(yīng)的精準(zhǔn)目標(biāo)跟蹤算法[J].系統(tǒng)工程與電子技術(shù),2008,30(11):2255-2258.)
[17] Lindeberg T. Feature detection with automatic scale selection[J].InternationalJournalofComputerVision,1998,30(2):79-116.
[18] Arulampalam M S, Maskell S, Gordon N, et al. A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J].IEEETranss.onSignalProcessing, 2002, 50 (2):174-188.
[19] Jia J P. The Research on objects tracking in image sequences[D]. Xi’an:Northwestern Polytechnical University, 2007.(賈靜平. 圖像序列中目標(biāo)跟蹤技術(shù)研究[D].西安:西北工業(yè)大學(xué),2007.)
[20] Ross D A, Lim J,Lin R S, et al. Incremental learning for robust visual tracking[J].InternationalJournalofComputerVision, 2008, 77 (1/3):125-141.
[21] Chenglong B, Yi W, Haibin L, et al. Real time robust L1tracker using accelerated proximal gradient approach[C]∥Proc.oftheIEEEConferenceonComputerVisionandPatternRecognition, 2012:1830-1837.
[22] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J].IEEETrans.onPatternAnalysisandMachingIntelligentce,2011,33(8):1619-1632.
[23] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J].IEEETrans.onPatternAnalysisandMachingIntelligentce,2012,34(7):1409-1422.
賈靜平(1978-),男,講師,博士,主要研究方向?yàn)閳D像處理、計(jì)算機(jī)視覺。
E-mail:rocsovsky@163.com
夏宏(1964-),男,副教授,博士,主要研究方向?yàn)橛?jì)算機(jī)體系結(jié)構(gòu)、嵌入式系統(tǒng)。
E-mail:summerday@ncepu.edu.cn
謝萍(1974-),女,講師,碩士,主要研究方向?yàn)閳D形圖像處理、軟件工程。
E-mail:xieping@ncepu.edu.cn
網(wǎng)絡(luò)優(yōu)先出版地址:http://www.cnki.net/kcms/detail/11.2422.TN.20141120.1827.001.html
Visual tracking by scale space particle filter with multiple
reference color histograms
JIA Jing-ping, XIA Hong, XIE Ping
(SchoolofControlandComputerEngineering,NorthChinaElectricPowerUniversity,Beijing102206,China)
Abstract:In most histogram based video object tracking algorithms, an object’s histogram is typically obtained from its region in the frame where the tracking is initiated. However, single histograms are not sufficient to adapt to the object’s all possible variations. For the scenario where an object’s typical appearances are available prior to tracking, a new scale space particle filter tracking algorithm based on multiple reference histograms is proposed. We firstly employ a linear weighted method to use multiple reference histograms for producing a single histogram that is used to get the object likelihood image. Then we propose to combine the scale space theory and particle filter framework to locate objects by detecting the maximum of the multi-scale normalized Laplaction filter function in the likelihood image. The comparison results with existing methods in the presented experiments on real and artificial sequences demonstrate that the proposed algorithm is able to successfully track objects whose color and brightness change drastically and rapidly, describe their size more accurately, and achieve better precision.
Keywords:video tracking; particle filtration; scale space; feature update
作者簡(jiǎn)介:
中圖分類號(hào):TP 391
文獻(xiàn)標(biāo)志碼:ADOI:10.3969/j.issn.1001-506X.2015.05.36
基金項(xiàng)目:國家自然科學(xué)基金(61372184);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金(13MS16)資助課題
收稿日期:2014-02-24;修回日期:2014-10-18;網(wǎng)絡(luò)優(yōu)先出版日期:2014-11-20。