趙天云, 鹿馨, 王洪迅, 李暉暉, 胡秀華
(1.西北工業(yè)大學(xué) 自動(dòng)化學(xué)院, 陜西 西安 710129; 2.空軍工程大學(xué) 航空航天工程學(xué)院, 陜西 西安 710038)
?
尺度自適應(yīng)結(jié)構(gòu)輸出目標(biāo)跟蹤算法
趙天云1, 鹿馨1, 王洪迅2, 李暉暉1, 胡秀華1
(1.西北工業(yè)大學(xué) 自動(dòng)化學(xué)院, 陜西 西安710129; 2.空軍工程大學(xué) 航空航天工程學(xué)院, 陜西 西安710038)
摘要:針對(duì)目標(biāo)尺度明顯變化時(shí)采用固定尺度的結(jié)構(gòu)輸出目標(biāo)跟蹤算法容易出現(xiàn)跟蹤失敗的問(wèn)題,提出一種改進(jìn)的尺度自適應(yīng)目標(biāo)跟蹤算法。新算法在傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法基礎(chǔ)上,將目標(biāo)運(yùn)動(dòng)信息引入候選樣本采集過(guò)程,通過(guò)自舉濾波器的狀態(tài)轉(zhuǎn)移模型預(yù)測(cè)目標(biāo)的當(dāng)前位置和尺度,生成一組多尺度候選樣本集,避免了固定尺度的密集均勻采樣,實(shí)現(xiàn)尺度自適應(yīng)的同時(shí)降低了算法的計(jì)算量。實(shí)驗(yàn)結(jié)果表明,所提算法在目標(biāo)發(fā)生明顯尺度變化、部分遮擋以及旋轉(zhuǎn)等情況下具有較高的魯棒性,且實(shí)時(shí)性相比于傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法明顯提高。
關(guān)鍵詞:實(shí)時(shí)控制;目標(biāo)跟蹤;尺度自適應(yīng);結(jié)構(gòu)支持向量機(jī);自舉濾波器
目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)之一,在人機(jī)交互、精確制導(dǎo)、視頻監(jiān)控等方面具有廣泛應(yīng)用。近年來(lái),目標(biāo)跟蹤技術(shù)的研究取得了顯著進(jìn)展,但是當(dāng)存在目標(biāo)尺度變化、光照改變、遮擋及背景干擾等復(fù)雜情況時(shí)容易引起跟蹤漂移,實(shí)現(xiàn)魯棒、實(shí)時(shí)的目標(biāo)跟蹤仍然面臨重大挑戰(zhàn)。
近年來(lái),基于檢測(cè)的目標(biāo)跟蹤方法得到廣泛關(guān)注,該類方法將跟蹤視為二分類問(wèn)題,利用在線訓(xùn)練的分類器將目標(biāo)從背景中辨別出來(lái)。文獻(xiàn)[3]將檢測(cè)、學(xué)習(xí)和跟蹤相結(jié)合,當(dāng)目標(biāo)短時(shí)間丟失后又出現(xiàn)在畫面時(shí),檢測(cè)模塊可以重新發(fā)現(xiàn)目標(biāo)進(jìn)而繼續(xù)跟蹤,在長(zhǎng)時(shí)間跟蹤任務(wù)中魯棒性非常高,但該方法的跟蹤模塊采用光流法來(lái)估計(jì)特征點(diǎn)的運(yùn)動(dòng),當(dāng)光照變化時(shí)容易丟失目標(biāo)。文獻(xiàn)[4]將壓縮感知理論應(yīng)用到跟蹤算法中,首先通過(guò)稀疏投影矩陣對(duì)特征進(jìn)行降維,再由樸素貝葉斯分類器進(jìn)行分類,獲得了非常高的實(shí)時(shí)性,但在線訓(xùn)練分類器的過(guò)程中容易出現(xiàn)誤差累積,對(duì)目標(biāo)外觀變化比較敏感。文獻(xiàn)[5]將結(jié)構(gòu)支持向量機(jī)應(yīng)用于目標(biāo)跟蹤,該算法在線更新一組反映目標(biāo)外觀變化的支持向量集,將與該支持向量集相關(guān)性最大的候選樣本位置作為跟蹤結(jié)果,適于長(zhǎng)時(shí)間、目標(biāo)外觀多變的跟蹤任務(wù)。但文獻(xiàn)[5]采用固定尺度的密集采樣的方式采集候選樣本,忽略了目標(biāo)的尺度問(wèn)題且計(jì)算量較大,而在實(shí)際應(yīng)用中目標(biāo)大小會(huì)不斷改變,算法極易將背景信息與目標(biāo)信息混淆從而導(dǎo)致跟蹤失敗。
本文在文獻(xiàn)[5]的基礎(chǔ)上提出一種尺度自適應(yīng)目標(biāo)跟蹤算法,新算法引入自舉濾波器對(duì)目標(biāo)運(yùn)動(dòng)狀態(tài)進(jìn)行預(yù)測(cè)并生成少量多尺度候選樣本,可有效克服密集采樣尺度單一且計(jì)算量大的缺點(diǎn);由結(jié)構(gòu)支持向量機(jī)直接輸出目標(biāo)的估計(jì)位置,避免了在線訓(xùn)練分類器易發(fā)生的漂移問(wèn)題。
1傳統(tǒng)結(jié)構(gòu)輸出目標(biāo)跟蹤算法
文獻(xiàn)[5]提出利用結(jié)構(gòu)支持向量機(jī)來(lái)解決目標(biāo)跟蹤問(wèn)題,算法實(shí)時(shí)更新一組支持向量集S,其中正支持向量保存目標(biāo)的視覺(jué)特征,負(fù)支持向量保存背景中干擾物的視覺(jué)特征,在目標(biāo)跟蹤過(guò)程中將結(jié)構(gòu)支持向量機(jī)響應(yīng)值最大的候選樣本位置定義為目標(biāo)位置。
若已知一組圖像片段集{x1,…,xn}?X及其標(biāo)注信息{y1,…,yn}?Y,則利用機(jī)器學(xué)習(xí)解決問(wèn)題時(shí)需要學(xué)習(xí)一個(gè)映射函數(shù)f:X→Y實(shí)現(xiàn)對(duì)未知圖像片段的自動(dòng)標(biāo)注。在結(jié)構(gòu)支持向量機(jī)框架中,引入判別函數(shù)F:X×Y→R,則可以根據(jù)(1)式得到映射函數(shù)
(1)
在結(jié)構(gòu)輸出目標(biāo)跟蹤算法中,若已知第(t-1)幀圖像的目標(biāo)位置為pt-1,在第t幀圖像中以pt-1為中心采集一組尺度相同的候選樣本集,則第t幀圖像中的目標(biāo)位置可通過(guò)(2)式得到
(2)
(3)
由(3)式可知對(duì)判別函數(shù)的更新本質(zhì)上就是對(duì)支持向量集以及相關(guān)參數(shù)的更新。得到目標(biāo)的當(dāng)前幀位置pt后,在第t幀圖像中以pt為中心采集一組未標(biāo)簽的訓(xùn)練樣本集{(x1,y1),…,(xn,yn)},定義損失函數(shù)
(4)
當(dāng)?shù)趇個(gè)樣本的位置yi與pt的重疊率越高,損失函數(shù)越小,引入損失函數(shù)可解決所有候選樣本被平等對(duì)待的問(wèn)題。
定義梯度為
(5)
目標(biāo)外觀在運(yùn)動(dòng)過(guò)程中不斷變化,支持向量集維數(shù)會(huì)不斷增長(zhǎng),為防止由此產(chǎn)生的維數(shù)災(zāi)難,采用閾值策略對(duì)支持向量集的維數(shù)加以限制。當(dāng)維數(shù)大于閾值時(shí),移除引起權(quán)向量w改變最小的負(fù)支持向量(xr,y),定義如下
(6)
綜上所述,傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法對(duì)目標(biāo)外觀變化具有較強(qiáng)的適應(yīng)性,但由于采用固定尺度的密集采樣方式采集候選樣本,當(dāng)目標(biāo)大小發(fā)生明顯變化時(shí)容易跟蹤失敗。
2尺度自適應(yīng)結(jié)構(gòu)輸出跟蹤算法
為解決傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法中尺度單一的問(wèn)題,所提新算法利用自舉濾波器的狀態(tài)轉(zhuǎn)移模型預(yù)測(cè)生成一組多尺度粒子集作為候選樣本集,代替了密集均勻采樣,實(shí)現(xiàn)多尺度目標(biāo)跟蹤的同時(shí)可有效降低算法的計(jì)算量。
2.1自舉濾波器
假設(shè)動(dòng)態(tài)系統(tǒng)的狀態(tài)方程和觀測(cè)方程為
(7)
式中向量xk、zk分別表示系統(tǒng)k時(shí)刻的狀態(tài)和觀測(cè);g(·)、h(·)表示系統(tǒng)的狀態(tài)轉(zhuǎn)移函數(shù)和觀測(cè)函數(shù);wk、vk表示過(guò)程噪聲和觀測(cè)噪聲。粒子濾波的核心思想是利用一組具有權(quán)值的離散抽樣粒子來(lái)近似系統(tǒng)的概率分布函數(shù)p(xk|z1:k),通常包括預(yù)測(cè)和更新2個(gè)步驟:
在預(yù)測(cè)階段,假定(k-1)時(shí)刻系統(tǒng)的概率分布函數(shù)p(xk-1|z1:k-1)已知,則可利用概率系統(tǒng)轉(zhuǎn)移模型來(lái)預(yù)測(cè)k時(shí)刻的先驗(yàn)概率p(xk|z1:k-1),即
(8)
式中,p(xk|xk-1)為概率轉(zhuǎn)移模型。
在更新階段,假定k時(shí)刻的觀測(cè)值z(mì)k已知,則所求概率分布函數(shù)可根據(jù)貝葉斯規(guī)則得到,即
(9)
式中,p(zk|xk)可由觀測(cè)方程得到。
在自舉濾波器框架中,k-1時(shí)刻系統(tǒng)的概率分布函數(shù)p(xk-1|z1:k-1)可由一組隨機(jī)采樣的先驗(yàn)粒子集{xk-1(i):i=1,…,Ns}近似表達(dá),即
(10)
2.2基于自舉濾波器的狀態(tài)轉(zhuǎn)移模型和觀測(cè)模型
利用自舉濾波器對(duì)目標(biāo)運(yùn)動(dòng)狀態(tài)進(jìn)行多尺度預(yù)測(cè)可以有效解決目標(biāo)跟蹤中的尺度問(wèn)題,定義自舉濾波器的狀態(tài)向量為xk=(rk,lk,sk),其中rk、lk表示樣本的位置,sk表示樣本的尺度。當(dāng)自舉濾波器的狀態(tài)空間維數(shù)增大時(shí),為了確保樣本分布近似于系統(tǒng)的概率分布,樣本數(shù)量將呈指數(shù)形式增長(zhǎng)從而導(dǎo)致計(jì)算量顯著增長(zhǎng),因此本算法假定樣本的長(zhǎng)和寬以相同的尺度sk變化。在進(jìn)行目標(biāo)跟蹤時(shí),首先根據(jù)目標(biāo)的初始狀態(tài)構(gòu)建一組粒子集{x0(i):i=1,…,Ns},該粒子集將經(jīng)過(guò)自舉濾波器的預(yù)測(cè)步驟生成跟蹤過(guò)程中的候選樣本集。
在預(yù)測(cè)階段,對(duì)于每個(gè)粒子xk-1(i),通過(guò)二階自回歸轉(zhuǎn)移模型預(yù)測(cè)得到粒子當(dāng)前的狀態(tài)xk(i)
(11)
在更新階段,利用觀測(cè)模型估計(jì)每個(gè)粒子的權(quán)值。定義粒子觀測(cè)值正比于結(jié)構(gòu)支持向量機(jī)響應(yīng)值
(12)
定義粒子權(quán)值如下
(13)
此時(shí)某些粒子的權(quán)值很小,在多次迭代后粒子集將無(wú)法充分表示系統(tǒng)的概率分布函數(shù)。為了避免粒子退化現(xiàn)象,在進(jìn)行下一幀目標(biāo)跟蹤之前,需要對(duì)粒子進(jìn)行重采樣。由于粒子權(quán)值正比于該粒子的結(jié)構(gòu)支持向量機(jī)響應(yīng)值,所以重采樣粒子集需保留具有較高權(quán)值的粒子,并重新調(diào)整粒子的分布,即
(14)
傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法采用密集采樣的方式采集候選樣本,當(dāng)候選區(qū)域半徑為R時(shí),樣本集維數(shù)為(2R)2,而本算法根據(jù)目標(biāo)的運(yùn)動(dòng)狀態(tài)構(gòu)建維數(shù)較小的多尺度樣本集,可有效降低計(jì)算量。
2.3尺度自適應(yīng)目標(biāo)跟蹤算法
本文提出的尺度自適應(yīng)結(jié)構(gòu)輸出目標(biāo)跟蹤算法的具體實(shí)現(xiàn)步驟如下:
步驟1初始化。讀取目標(biāo)的初始位置y0,提取Haar-like特征x0,分別進(jìn)行粒子集和結(jié)構(gòu)支持向量機(jī)的初始化:
1) 粒子集初始化。構(gòu)建初始粒子集{x0(i):i=1,…,Ns},粒子權(quán)值qi=1/Ns,粒子k、(k-1)、(k-2)時(shí)刻的位置均為y0,尺度s=1。
2) 結(jié)構(gòu)支持向量機(jī)初始化。將(x0,y0)作為正支持向量,梯度值最小的訓(xùn)練樣本作為負(fù)支持向量,由SMO算法更新支持向量的系數(shù)和梯度值。
步驟2多尺度目標(biāo)跟蹤:
1) 粒子多尺度預(yù)測(cè)。讀取第t幀圖像,根據(jù)狀態(tài)轉(zhuǎn)移方程式(11)對(duì)目標(biāo)位置、尺度進(jìn)行預(yù)測(cè)得到新的多尺度粒子集{xt(i):i=1,…,Ns}。
2) 目標(biāo)定位。根據(jù)公式(3)計(jì)算每個(gè)粒子的結(jié)構(gòu)支持向量機(jī)響應(yīng)值,根據(jù)公式(2)確定目標(biāo)在當(dāng)前幀的位置pt,并根據(jù)公式(12)及(13)更新粒子權(quán)值。
步驟3更新結(jié)構(gòu)支持向量機(jī):
1) 添加新支持向量。采集訓(xùn)練樣本并計(jì)算梯度值,將(xt,yt)作為正支持向量,由y-=argminy∈Ygi(y)確定負(fù)支持向量,由SMO算法更新支持向量的系數(shù)和梯度。
2) 更新支持向量集。計(jì)算所有支持向量的梯度值,分別將具有最大及最小梯度的支持向量作為新的正負(fù)支持向量,然后由SMO算法更新支持向量集的系數(shù)和梯度。
3) 閾值機(jī)制。若支持向量集的維數(shù)大于閾值,則根據(jù)公式(6)移除相應(yīng)的負(fù)支持向量。
4) 迭代2)、3)以提高支持向量集的準(zhǔn)確度。
步驟4粒子重采樣。根據(jù)公式(13)得到粒子權(quán)值qi,按照公式(14)重新調(diào)整粒子的分布。
步驟5置t=t+1,返回步驟2。
3實(shí)驗(yàn)結(jié)果及分析
為驗(yàn)證算法的有效性,在IntelCorei5-3280M,2.5GHz、4GBRAM的計(jì)算機(jī)上利用C++、OpenCV編程實(shí)現(xiàn),軟件環(huán)境為VisualStudio2010。設(shè)置粒子數(shù)目Ns=400,狀態(tài)轉(zhuǎn)移模型參數(shù)A=1.5,B=-0.5,高斯噪聲標(biāo)準(zhǔn)差分別為5、5、0.06;高斯核函數(shù)參數(shù)σ=0.2;訓(xùn)練樣本采集半徑R=20像素;支持向量集維數(shù)閾值為100,迭代次數(shù)為10。選取兩段標(biāo)準(zhǔn)視頻carScale、walking2以及一段機(jī)載相機(jī)拍攝的肇事車輛逃逸監(jiān)控視頻進(jìn)行測(cè)試,由文獻(xiàn)[7]提出的兩種指標(biāo)評(píng)價(jià)跟蹤性能:由邊界框重疊率評(píng)價(jià)準(zhǔn)確度,重疊率越高準(zhǔn)確度越高;由中心定位誤差評(píng)價(jià)精度,誤差越小精度越高。將本算法與傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法Struck[5]及跟蹤-學(xué)習(xí)-檢測(cè)算法TLD[3]進(jìn)行對(duì)比,重點(diǎn)分析本算法與Struck算法的差異。
實(shí)驗(yàn)1carScale視頻中的汽車快速行駛,尺度變化非常明顯且存在遮擋情況。圖1為carScale視頻跟蹤過(guò)程中生成的支持向量集(白色和黑色矩形框分別表示正、負(fù)支持向量),可看到正支持向量反映了目標(biāo)運(yùn)動(dòng)過(guò)程中的外觀變化情況。圖2為3種算法對(duì)carScale視頻的跟蹤結(jié)果,圖3為3種算法的跟蹤性能曲線。表1給出了3種算法的平均重疊率、平均誤差以及平均幀率。
圖1 carScale視頻的支持向量集可視化
圖2 3種算法對(duì)carScale視頻的跟蹤結(jié)果(每行圖像從左至右依次是第79、145、172、200和238幀)
隨著目標(biāo)尺度不斷增大,Struck算法所采用的固定尺度跟蹤框僅能包含目標(biāo)的少部分信息,跟蹤性能隨目標(biāo)尺度不斷變大而呈指數(shù)形式降低;TLD算法具有尺度自適應(yīng)性,但TLD算法的跟蹤模塊采用了中值光流法,對(duì)遮擋和光照變化非常敏感,從圖3可看出第150到180幀之間發(fā)生遮擋時(shí)TLD算法的跟蹤誤差較大。在238幀前后目標(biāo)的尺度發(fā)生了顯著變化,僅有本算法的跟蹤框較準(zhǔn)確的包含了目標(biāo)。由表1可見(jiàn)相比Struck算法,本文算法的重疊率提高了60%,誤差降低了53%。當(dāng)候選區(qū)域半徑為R=20時(shí),Struck約采集1 600個(gè)候選樣本,而本文算法采集Ns=400個(gè)多尺度樣本,大幅降低了計(jì)算量,算法實(shí)時(shí)性提高了32%。
圖3 carScale視頻的跟蹤性能曲線
方法平均重疊率平均誤差/像素平均幀率/(幀·s-1)Struck0.389235.409214.5306TLD0.474523.120710.6335本文算法0.646516.485019.2481
實(shí)驗(yàn)2walking2視頻中的行人存在尺度變化和相似物干擾的情況。圖4為walking2視頻跟蹤過(guò)程中生成的支持向量集(白色和黑色矩形框分別表示正、負(fù)支持向量)。圖5為3種算法對(duì)walking2視頻的跟蹤結(jié)果,圖6為3種算法的跟蹤性能曲線。
當(dāng)行人尺度逐漸縮小時(shí),Struck算法的跟蹤框引入了大量背景信息,跟蹤性能持續(xù)降低;TLD算法對(duì)同類干擾非常敏感,在第241幀中將干擾行人誤認(rèn)為目標(biāo),由圖6可見(jiàn)在210幀及380幀前后存在遮擋時(shí)跟蹤誤差非常大。本算法的跟蹤框始終較準(zhǔn)確的反映了目標(biāo)位置,由表2可見(jiàn)本文算法的邊界框重疊率相比于Struck算法提高了48%,誤差降低了76%,實(shí)時(shí)性提高了60%,跟蹤性能最好。
圖4 walking2視頻的支持向量集可視化
圖5 3種算法對(duì)walking2視頻的跟蹤結(jié)果(圖片依次為第180、206、241、373、500幀)
圖6 walking2視頻的跟蹤性能曲線
方法平均重疊率平均誤差/像素平均幀率/(幀·s-1)Struck0.511013.562610.9653TLD0.369621.425013.4998本文算法0.75913.252617.5702
實(shí)驗(yàn)3選取機(jī)載相機(jī)拍攝的肇事車輛逃逸監(jiān)控視頻,視頻中的汽車不斷進(jìn)行旋轉(zhuǎn)、突然加速等動(dòng)作。圖7為監(jiān)控視頻跟蹤過(guò)程中生成的支持向量集(白色和黑色矩形框分別表示正、負(fù)支持向量)。圖8為3種算法對(duì)監(jiān)控視頻的跟蹤結(jié)果,圖9為3種算法的跟蹤速度對(duì)比曲線。
在73幀到290幀之間汽車發(fā)生 的轉(zhuǎn)向且尺度變大,Struck算法的跟蹤框偏離了目標(biāo)的中心位置,TLD算法在汽車旋轉(zhuǎn)后仍定位到目標(biāo)但跟蹤框尺度自適應(yīng)性不及本算法。在367幀前后目標(biāo)尺度變小,Struck算法引入了大量背景信息,而本算法比TLD算法的跟蹤框更準(zhǔn)確的包含目標(biāo)。由圖9中可見(jiàn)本算法速度相對(duì)于Struck算法有明顯優(yōu)勢(shì)。
圖7 監(jiān)控視頻的支持向量集可視化
圖8 3種算法對(duì)監(jiān)控視頻的跟蹤結(jié)果(每行圖像從左至右依次是第73、168、200、291和367幀)
圖9 監(jiān)控視頻的跟蹤速度對(duì)比
4結(jié)論
本文結(jié)合實(shí)際應(yīng)用背景需求,提出一種尺度自適應(yīng)目標(biāo)跟蹤新算法。算法在傳統(tǒng)結(jié)構(gòu)輸出跟蹤算法的基礎(chǔ)上,采用自舉濾波器對(duì)目標(biāo)運(yùn)動(dòng)狀態(tài)進(jìn)行多尺度預(yù)測(cè),有效解決了目標(biāo)尺度因距離變化或像機(jī)變焦調(diào)節(jié)等因素而變化導(dǎo)致的跟蹤失敗問(wèn)題。同時(shí)避免了對(duì)圖像進(jìn)行密集均勻采樣,降低了算法計(jì)算量。實(shí)驗(yàn)結(jié)果表明,該算法在目標(biāo)發(fā)生明顯尺度變化、部分遮擋等情況下,具有較高的跟蹤精度和穩(wěn)定性。
參考文獻(xiàn):
[1]Matteo Munaro, Emanuele Menegatti. Fast RGB-D People Tracking for Service Robots[J]. Autonomous Robots, 2014, 37(3): 227-242
[2]Babenko B, Yang M H, Belongie S. Robust Object Tracking with Online Multiple Instance Learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33: 1619-1632
[3]Kalal Z, Mikolajczyk K, Matas J. Tracking-Learning-Detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422
[4]Zhang K, Zhang L, Yang M H. Real-Time Compressive Tracking[C]∥2012 ECCV, 2012: 864-877
[5]Hare S, Saffari A, Torr P H S. Struck: Structured Output Tracking with Kernels[C]∥2011 IEEE International Conference on Computer Vision, 2011: 263-270
[6]Platt J. Fast Training of Support Vector Machines Using Sequential Minimal Optimization[M]. Advances in Kernel Methods——Support Vector Learning, 1999: 185-208
[7]Wu Y, Lim J, Yang M H. Online Object tracking: A Benchmark[C]∥2013 IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2411-2418
[8]Smeulders A W M, Chu D M, Cucchiara R, et al. Visual Tracking: An Experimental Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1442-1468
[9]馬偉,陳建國(guó),張毛磊. 基于尺度自適應(yīng)和跟蹤框自轉(zhuǎn)的視頻目標(biāo)跟蹤[J]. 清華大學(xué)學(xué)報(bào), 2012,52(1): 92-95
Ma Wei, Chen Jianguo, Zhang Maolei. Video Target Tracking Based on Scale Adaptation and Tracking Box Rotations[J]. Journal of Tsinghua University, 2012, 52(1): 92-95 (in Chinese)
Structured Output Target Tracking Algorithm with Scale Adaptation
Zhao Tianyun1, Lu Xin1, Wang Hongxun2, Li Huihui1, Hu Xiuhua1
1.School of Automation, Northwestern Polytechnical University, Xi′an 710129, China2.Aeronautical and Astronautical Engineering College, Air Force Engineering University, Xi′an 710038, China
Abstract:A new multi-scale tracking algorithm is proposed to solve the problem that the structured output tracking algorithm with fixed scale often leads to failure when the size of the target change obviously. Based on the original structured output tracking algorithm, the proposed algorithm introduces the velocity information of the moving target into the sampling process of candidate samples. A state transition model of the bootstrap filter is used to estimate the current position and scale, generate a set of multi-scale samples and avoid dense sampling with fixed scale, this allow to realize scale adaptation and reduce the calculation of algorithm. Experiments show that the proposed algorithm has strong robustness when the scale of target changed obviously or target is partially occluded, and achieve higher real-time performance than original structured output tracking algorithm.
Keywords:real-time control; target tracking; scale adaptation; structured SVM; bootstrap filter
收稿日期:2016-03-08
基金項(xiàng)目:航空科學(xué)基金(20131953022)與西北工業(yè)大學(xué)研究生創(chuàng)業(yè)種子基金(Z2015120)資助
作者簡(jiǎn)介:趙天云(1970—),西北工業(yè)大學(xué)副教授,主要從事計(jì)算機(jī)視覺(jué)、圖像與信息融合等的研究。
中圖分類號(hào):TP391
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1000-2758(2016)04-0677-07