李曉行,陳金廣,馬麗麗, 王明明,王 偉
(西安工程大學(xué) 計算機(jī)科學(xué)學(xué)院, 陜西 西安 710048)
0 引 言
目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域中的主要研究內(nèi)容之一,廣泛應(yīng)用于運(yùn)動識別、視頻監(jiān)控、視頻索引、人機(jī)交互等領(lǐng)域中[1].由于目標(biāo)跟蹤面臨著光照變化、運(yùn)動模糊、目標(biāo)遮擋等挑戰(zhàn)因素,因此,其研究仍是重點(diǎn)與難點(diǎn).目標(biāo)跟蹤算法一般分為生成式模型和判別式模型兩大類.
基于生成式模型的目標(biāo)跟蹤算法一般是利用學(xué)習(xí)得到的目標(biāo)模型找到具有最小重建錯誤的圖像塊,該圖像塊位置即為目標(biāo)位置.具有代表性的是Comaniciu等提出的Mean Shift算法[2],該算法利用概率密度梯度估計,通過迭代尋優(yōu)以找到目標(biāo)位置,但其對顏色變化較為敏感.Cai等對Mean Shift算法進(jìn)行了改進(jìn)[3],將空間直方圖和Contourlet直方圖進(jìn)行加權(quán)求和,該方法在目標(biāo)遮擋、旋轉(zhuǎn)、尺度變換等情況下具有較好的魯棒性.針對Mean Shift算法無法進(jìn)行尺度自適應(yīng)更新的問題,Bradski提出了CamShift算法[4],該算法能夠自適應(yīng)地調(diào)整目標(biāo)跟蹤區(qū)域的大小,具有較好的跟蹤效果.IVT算法[5]利用增量主成分分析子空間對目標(biāo)模型進(jìn)行描述,能夠在線估計目標(biāo)的外觀,從而實(shí)現(xiàn)目標(biāo)跟蹤.Mei等[6]提出一種粒子框架下的L1跟蹤算法,將跟蹤問題看作稀疏逼近問題,該算法在遮擋情況下具有較好的跟蹤效果,但計算量較大.
基于判別式模型的目標(biāo)跟蹤算法將跟蹤問題看作二元分類問題,將目標(biāo)和背景區(qū)分開來,從而得到目標(biāo)的位置.Grabner等提出一種在線boosting方法來選擇特征進(jìn)行跟蹤[7],僅使用一個正樣本和少量負(fù)樣本更新分類器,易導(dǎo)致跟蹤漂移.Babenko等提出了一種多示例學(xué)習(xí)跟蹤算法[8],該算法將訓(xùn)練樣本以樣本包的形式表示,學(xué)習(xí)判別模型并訓(xùn)練分類器分離目標(biāo)與背景,雖然該算法跟蹤效果較好,但其易受遮擋及誤差的影響.Wang等提出了一種基于超像素的分類模型[9],可以有效解決遮擋問題.Hare等提出使用在線結(jié)構(gòu)化的輸出支撐向量機(jī)來進(jìn)行跟蹤[10],可以有效地減輕錯誤標(biāo)簽樣本的影響.Zhang等提出了壓縮跟蹤(CT,Compressive Tracking)算法[11],該算法利用樣本的壓縮特征來進(jìn)行分類處理,提高了算法的運(yùn)行效率,但該算法易受遮擋影響且尺度不能自適應(yīng)更新.快速壓縮跟蹤(FCT,Fast Compressive Tracking)算法利用二次定位方法提升了CT算法的運(yùn)行效率[12],但該算法仍易受遮擋影響且尺度也不能自適應(yīng)更新.一些學(xué)者針對CT算法跟蹤準(zhǔn)確性不高的問題提出了解決方法[13-16],但這些方法未能實(shí)現(xiàn)尺度的自適應(yīng)更新.
本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將判別相關(guān)濾波器和尺度金字塔[17]運(yùn)用于CT算法中,以實(shí)現(xiàn)尺度的自適應(yīng)更新;利用正負(fù)樣本的巴氏系數(shù)對樸素貝葉斯分類器進(jìn)行加權(quán),使得分類結(jié)果更為準(zhǔn)確.
1 壓縮跟蹤算法
壓縮跟蹤算法是基于壓縮感知理論的一種快速魯棒跟蹤算法.壓縮感知理論指出,利用一個滿足壓縮等距性(RIP,Restricted isometry property)條件的隨機(jī)矩陣對稀疏向量進(jìn)行隨機(jī)采樣,采樣后的低維向量幾乎保留了原始向量的全部信息.CT算法正是根據(jù)這一理論對高維特征進(jìn)行采樣壓縮,這里采用的是Haar-like特征,Haar-like特征是計算機(jī)視覺領(lǐng)域一種常用的特征描述算子.其利用一個維數(shù)為m×n且滿足RIP條件的隨機(jī)矩陣E,將高維特征向量X(n維)轉(zhuǎn)換到低維特征向量V(m維),其中m遠(yuǎn)小于n,公式表示為
V=EX.
(1)
其中隨機(jī)矩陣E為一種非常稀疏的矩陣,第i行第j列元素取值如下:
![](https://cimg.fx361.com/images/2023/0210/90d7eae9f48febd90490ee4158e1e475b9d60f09.webp)
(2)
Li等[18]證明了當(dāng)s=O(n)時,矩陣E滿足RIP條件,且每一行至多有4個非零元素需要計算,能夠有效提高算法的運(yùn)行速率.
CT算法采用樸素貝葉斯分類器進(jìn)行分類,利用公式(1)得到樣本圖像的低維特征向量V=(v1,…,vm)T.假設(shè)特征向量中各分量相互獨(dú)立,且每個樣本為目標(biāo)或背景的概率相同,則樸素貝葉斯分類器的模型如下:
![](https://cimg.fx361.com/images/2023/0210/6877e12937317d1a7f3371ab18ffaf59a7fd1907.webp)
(3)
式中,y=1代表正樣本,y=0代表負(fù)樣本.Diaconis等[18]證明了高維向量的隨機(jī)投影基本都服從高斯分布,所以可以假設(shè)條件概率p(vi|y=1)和p(vi|y=0)服從高斯分布,即
(4)
![](https://cimg.fx361.com/images/2023/0210/eb9218bca39f5842d06e40bb8481a19ea9d58b1a.webp)
(5)
![](https://cimg.fx361.com/images/2023/0210/f410ac929a7e341c1ec11e80473f01b3f647e6a2.webp)
![](https://cimg.fx361.com/images/2023/0210/c55f76dbcf4d1f01461d8081462bb64ff747dee2.webp)
(6)
(7)
![](https://cimg.fx361.com/images/2023/0210/3d29afe410379756092f3e12c11c987dfdb59870.webp)
壓縮跟蹤算法是一種簡單高效的實(shí)時跟蹤算法,在一些簡單的場景下具有良好的跟蹤效果,但當(dāng)目標(biāo)的尺度發(fā)生變化時,壓縮跟蹤算法不能進(jìn)行自適應(yīng)的尺度更新,從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,且該算法的分類器能力不強(qiáng).針對上述問題,本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將尺度金字塔和判別相關(guān)濾波器運(yùn)用于CT算法中以選取合適的跟蹤尺度,并將貝葉斯分類器進(jìn)行加權(quán)處理,以提高算法的魯棒性和精確性.
2 結(jié)合尺度更新的加權(quán)壓縮跟蹤算法
2.1 尺度更新
利用判別相關(guān)濾波器及尺度金字塔進(jìn)行尺度更新,求得不同尺度下的相關(guān)濾波器響應(yīng),最大的響應(yīng)值對應(yīng)的尺度即為當(dāng)前尺度.假設(shè)圖像塊f具有d維特征描述,即fl(l∈{1,…,d}),這里采用融合方向梯度直方圖(fhog)特征,通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成hog特征,對hog特征進(jìn)行融合得到fhog特征.可以通過最小化下列代價函數(shù)求得最佳相關(guān)濾波器h:
![](https://cimg.fx361.com/images/2023/0210/2736811e060abda35cb3c7a32839bead8cacce1f.webp)
(8)
式中,每一維特征fl對應(yīng)一個濾波器hl,g為與特征f相關(guān)聯(lián)的期望相關(guān)輸出,λ≥0為正則項的系數(shù).在頻域中求解式(8)可得:
![](https://cimg.fx361.com/images/2023/0210/cb5569bcfb2de24a6c8fb117d7c2935ac32f1638.webp)
(9)
![](https://cimg.fx361.com/images/2023/0210/c4e42caa2ac58ce1015e9fd74d881bb0a35517a0.webp)
(10)
![](https://cimg.fx361.com/images/2023/0210/89f3c7c45b3c770f374edcac185a0f907e25d74e.webp)
(11)
式中,η為學(xué)習(xí)率.新的一幀中,目……標(biāo)尺度通過求解最大相關(guān)濾波器響應(yīng)y來確定:
(12)
式中,F-1表示傅里葉逆變換,以目標(biāo)位置為中心提取不同尺度下的樣本z,分別提取不同樣本的fhog特征,每個樣本的fhog特征串聯(lián)成一個特征向量并構(gòu)成金字塔特征,將金字塔特征乘以一維漢明窗后作為Z的值.用于目標(biāo)尺度估計的尺度選擇原則為
![](https://cimg.fx361.com/images/2023/0210/6039ebeff7985fd0a5e12915699fea1568b15cae.webp)
2.2 加權(quán)分類器構(gòu)建
CT算法中構(gòu)建分類器的所有特征的權(quán)值都為1,但正負(fù)樣本特征的分類能力不同,所以CT算法中的分類器無法突出具有強(qiáng)分類能力特征的重要性,從而導(dǎo)致分類器的分類能力不強(qiáng).在構(gòu)建分類器時,考慮到利用正負(fù)樣本特征相似度的大小對分類器進(jìn)行加權(quán)可以增強(qiáng)分類能力,本文利用巴氏系數(shù)來衡量正負(fù)樣本的相似度.對于連續(xù)分布,巴氏系數(shù)的表達(dá)式為
(14)
式中,B∈[0,1],B越大則兩者的相似度越大.根據(jù)正負(fù)樣本的巴氏系數(shù)對分類器進(jìn)行加權(quán).正負(fù)樣本的巴氏系數(shù)越小,分類能力越強(qiáng),因此給其賦予的權(quán)值也就越大.加權(quán)后的分類器能夠有效地對訓(xùn)練樣本的分類能力強(qiáng)弱進(jìn)行區(qū)分,提升了自身的分類能力.加權(quán)分類器模型為
![](https://cimg.fx361.com/images/2023/0210/a92a936a6a4521359a17260e6fdfc23fc782d031.webp)
(15)
2.3 算法流程
輸入:第t幀圖像,上一幀的目標(biāo)位置It-1及尺度St-1;上一幀的尺度模型At-1,Bt-1;正采樣半徑rp;負(fù)采樣半徑rn1,rn2;跟蹤搜索半徑r;正負(fù)樣的相似度B.
(1) 采集樣本集A={s|‖I(s)-It-1‖(2) 根據(jù)式(15)構(gòu)建分類器H,檢測出A中使H響應(yīng)值最大的樣本位置即為目標(biāo)位置It.
(3) 以目標(biāo)位置為中心,根據(jù)尺度及式(13)提取33種不同尺度的樣本z.
(4) 利用z,At-1,Bt-1、及式(12)計算出相關(guān)濾波器響應(yīng)y.
(5) 找到最大的y對應(yīng)的尺度,并將其作為當(dāng)前尺度St.
(6) 采樣正樣本集Ap={s|‖I(s)-It‖