楊大為++劉麗萍++祁燕
摘 要:針對單目標(biāo)跟蹤過程中的部分遮擋問題,提出了一種結(jié)構(gòu)化的聯(lián)合特征表觀模型。該模型將被跟蹤的目標(biāo)圖像劃分成若干圖像塊,在每個圖像塊內(nèi)分別計算其顏色特征和紋理特征,將這些特征向量化后作為目標(biāo)的表觀模型。實驗結(jié)果表明了該方法的有效性。
關(guān)鍵字:表觀模型 顏色特征 紋理特征
中圖分類號:TP391.41 文獻(xiàn)標(biāo)識碼:A 文章編號:1672-3791(2015)04(c)-0001-01
目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域的的研究熱點之一,廣泛地應(yīng)用于視頻監(jiān)控、機(jī)器人導(dǎo)航和人機(jī)交互等領(lǐng)域。近年來,研究人員提出了大量的跟蹤方法及相關(guān)技術(shù),但仍面臨許多難題,如光照變化、部分或完全遮擋、復(fù)雜背景環(huán)境干擾等。設(shè)計一個魯棒的目標(biāo)表觀模型成為目標(biāo)跟蹤的關(guān)鍵任務(wù)。
根據(jù)不同的外觀表示方法,跟蹤模型可被分為兩類:生成模型和判別模型。生成模型包括Black等[1]提出的離線子空間表觀模型,WLS跟蹤器[2]和IVT方法[3]等在線模型以及基于稀疏表達(dá)[4]的方法。這些生成模型都沒有考慮背景信息,丟棄了一些把目標(biāo)從背景中判別出來的有用信息。
判別模型把跟蹤問題看作是將目標(biāo)從背景中分離出來的二分類問題。Avidan等[5]的方法所使用的特征中包含了影響分類器性能的無關(guān)信息。Grabner等[6]提出了在線boosting特征選擇方法,可能會導(dǎo)致跟蹤失敗。MIL跟蹤器[7]可能會選擇一些效果較小的正樣本。壓縮跟蹤(CT)[8]對跟蹤目標(biāo)的模板進(jìn)行壓縮,但沒有解決目標(biāo)尺度變化的問題。
針對目標(biāo)跟蹤中的部分遮擋問題,該文提出了一種結(jié)構(gòu)化的聯(lián)合特征表觀模型。該模型將目標(biāo)圖像劃分成若干圖像塊,這些圖像塊保持了固定的空間結(jié)構(gòu)信息;在每個圖像塊內(nèi)分別計算局部顏色特征和紋理特征,向量化后作為目標(biāo)的表觀特征。
1 結(jié)構(gòu)化的加權(quán)聯(lián)合特征表觀模型
1.1 顏色特征
顏色特征是計算機(jī)視覺領(lǐng)域中應(yīng)用最為廣泛的特征,具有較高的魯棒性。本文選擇顏色特征中的一階矩和二階矩來表示圖像中顏色的分布,其數(shù)學(xué)定義如下:
(1)
(2)
其中,表示彩色圖像第i個顏色通道分量中灰度值為j的像素出現(xiàn)的概率,N表示圖像中的像素個數(shù)。
1.2 紋理特征
圖像的熵是一種紋理特征的統(tǒng)計形式,既反映了圖像灰度的聚集特征,也反映了灰度分布的空間特征,其定義為:
(3)
1.3 結(jié)構(gòu)化的聯(lián)合特征表觀模型
設(shè)當(dāng)前幀圖像為,候選目標(biāo)圖像為,將候選目標(biāo)圖像劃分為個圖像塊。在每個圖像塊中分別計算顏色矩特征和二維熵特征,并將這些特征形成特征向量,表示第個圖像塊的顏色特征分量,表示第個圖像塊的紋理特征分量。
2 實驗結(jié)果與分析
將該文的表觀模型結(jié)合貝葉斯理論進(jìn)行跟蹤,并與CT跟蹤算法和MIL跟蹤算法進(jìn)行對比。所有算法均在PC機(jī)(Intel CoreTM 2 Duo CPU,2.29 GHz,2.00 GB)上實現(xiàn),其軟件環(huán)境為Matlab R2010b,測試的視頻序列包括典型的部分遮擋。
該文使用中心位置差和每一幀的平均跟蹤時間作為上述算法的評價指標(biāo),結(jié)果表明本文的方法對部分遮擋具有較好的魯棒性,且平均跟蹤時間明顯優(yōu)于對比算法。
3 結(jié)語
針對單目標(biāo)跟蹤中的部分遮擋問題,該文提出了一種結(jié)構(gòu)化的聯(lián)合特征表觀模型。該模型既保留了被跟蹤目標(biāo)的空間結(jié)構(gòu)信息,又考慮了目標(biāo)的顏色和紋理特征。將該模型結(jié)合貝葉斯理論進(jìn)行目標(biāo)跟蹤,實驗結(jié)果證明了該文表觀模型的有效性。
參考文獻(xiàn)
[1] M.Black,A.Jepson.Eigentracking: robust matching and tracking of articulated objects using a view-based representation[C].European Conference on Computer Vision,1996:329-342.
[2] A.Jepson,D.Fleet,T.El-Maraghi. Robust online appearance models for visual tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003(25):1296-1311.
[3] D·Ross,J·Lim,R.Lin,et al,Incremental learning for robust visual tracking[J],International Journal of Computer Vision,2008(77):125-141.
[4] X·Mei,H.Ling,Robust visual tracking using l1 minimization[C].International Conference on Computer Vision,2009:1436-1443.
[5] S·Avidan.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007(29):261-271.
[6] H·Grabner,M.Grabner,H.Bischof. Real-time tracking via online boosting[C].British Machine Vision Conference,2006:47-56.
[7] B·Babenko,M.Yang,S.Belongie.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011(33):1619-1632.
[8] K.Zhang,L.Zhang,M H.Yang.Real-Time Compressive Tracking[C].European Conference on Computer Vision,2012.