陳一根 黃繼風(fēng)
摘 要: 在正負(fù)樣本區(qū)域隨機(jī)抽取了不同尺度下圖像的局部二值模式(LBP)特征,將高維的特征信息投射到低秩的壓縮域,并據(jù)此建立了表觀模型.使用一個(gè)隨機(jī)稀疏測(cè)量矩陣來(lái)壓縮前景和背景目標(biāo).將追蹤問(wèn)題轉(zhuǎn)化成為了一個(gè)使用樸素貝葉斯分類器的二元分類問(wèn)題.所提方法可以較快速、實(shí)時(shí)地在線追蹤目標(biāo),同時(shí)解決了目標(biāo)尺度變化、遮擋問(wèn)題.
關(guān)鍵詞: 計(jì)算機(jī)視覺(jué); 目標(biāo)追蹤; 壓縮感知; 局部二值模式(LBP)
中圖分類號(hào): TP 39 文獻(xiàn)標(biāo)志碼: A 文章編號(hào): 1000-5137(2018)04-0483-05
Abstract: We randomly extracted the feature of local binary patterns(LBP) with different sizes within both positive samples and negative samples.The high-dimensional feature information was projected onto the low rank compression domain based on which the characterization model was established.Then,it compressed samples of foreground and the background targets by using the same random sparse measurement matrix.Finally,the tracking task was formulated as a binary classification via a Naive Bayes classifier.The experiment showed that the proposed method could track the target quickly and constantly.Furthermore,it could also solve the problem of multi-scale change and occlusion issue at the same time.
Key words: computer vision; target tracking; compressed sensing; local binary pattern(LBP)
視頻目標(biāo)追蹤,作為計(jì)算機(jī)視覺(jué)領(lǐng)域一項(xiàng)基礎(chǔ)的重要技術(shù),有著非常廣泛的應(yīng)用[1],是其他后續(xù)視覺(jué)處理的基礎(chǔ).目前國(guó)內(nèi)外研究人員通過(guò)將各種在線學(xué)習(xí)模型應(yīng)用到目標(biāo)模型的建立和更新中,以適應(yīng)目標(biāo)的尺度和環(huán)境變化,該方法被稱為基于檢測(cè)的目標(biāo)追蹤算法.依據(jù)其表觀模型,追蹤算法通常被分為兩大類:可生性的算法和區(qū)別性的算法.可生性的追蹤算法通常用學(xué)習(xí)模型來(lái)表示目標(biāo),然后用其遍歷圖像尋找最小殘差區(qū)域.Zhang等[2]提出一種簡(jiǎn)單有效的基于壓縮域的追蹤方法對(duì)目標(biāo)進(jìn)行追蹤.Hare 等[3]提出Struck算法,采用在線結(jié)構(gòu)輸出的支持向量機(jī)學(xué)習(xí)方法來(lái)解決跟蹤問(wèn)題.Zhong等[4]提出一種將稀疏的原始模板與生成的表觀模型相互協(xié)作的模型作為目標(biāo)追蹤算法,從而使跟蹤器有效地處理外觀變化和減少漂移問(wèn)題.Xu等[5] 提出一種基于結(jié)構(gòu)局部稀疏模型的簡(jiǎn)單且穩(wěn)健的跟蹤方法,采用一個(gè)結(jié)合增量子空間學(xué)習(xí)和稀疏表示的模板更新策略,該策略適用于外觀變化和漂移可能性小的情況.Henriques等[6]提出利用檢測(cè)內(nèi)核追蹤的循環(huán)結(jié)構(gòu)對(duì)目標(biāo)進(jìn)行追蹤,該算法設(shè)計(jì)了一個(gè)有效的循環(huán)矩陣將樣本特征投射到傅里葉域進(jìn)行分析,使內(nèi)核機(jī)對(duì)偶空間的分類器與線性分類器具有相同的運(yùn)行速度.Zhang等[7]提出一種建立在粒子濾波追蹤框架下的低秩稀疏追蹤器,該方法根據(jù)時(shí)間更新聯(lián)合低秩稀疏矩陣.Ross等[8]提出一種增量學(xué)習(xí)的視頻追蹤算法,逐步提高目標(biāo)子空間的表觀模型.Zhang等[9]構(gòu)造一個(gè)在線的兩層卷積神經(jīng)網(wǎng)絡(luò),并將其用于目標(biāo)的追蹤,該神經(jīng)網(wǎng)絡(luò)能夠有效地適應(yīng)目標(biāo)外觀的變化.
本文作者基于局部二值模式 (LBP) 提取樣本特征,然后通過(guò)隨機(jī)壓縮矩陣建立表觀模型.采用一個(gè)滿足限制等距特性的稀疏測(cè)量矩陣,將圖像特征投影到一個(gè)低維的壓縮子空間.測(cè)試實(shí)驗(yàn)表明,所提方法在較快速、實(shí)時(shí)地完成在線追蹤的同時(shí),解決了目標(biāo)尺度變化、遮擋等問(wèn)題.
2.3 追蹤算法流程
本文作者提出了一種基于LBP(局部二值模式) 提取樣本特征,然后通過(guò)隨機(jī)壓縮矩陣來(lái)建立表觀模型的高效追蹤算法.算法流程如下:
1) 采用手動(dòng)選取或者初始化標(biāo)定方式初始化追蹤目標(biāo);
2) 采集目標(biāo)樣本和背景樣本;
3) 計(jì)算圖像區(qū)域的LBP積分直方圖,通過(guò)積分直方圖.計(jì)算目標(biāo)樣本和背景樣本的特征;
4) 讀取新的視頻圖像,在上一幀目標(biāo)位置附近區(qū)域采集樣本,同時(shí)計(jì)算所有正負(fù)樣本的每一樣本特征,代入(5)式中計(jì)算H(v),選取最大的候選區(qū)域作為新一幀的目標(biāo)區(qū)域;
5) 在目標(biāo)的附近采集正樣本,在遠(yuǎn)離目標(biāo)的區(qū)域采集負(fù)樣本,分別計(jì)算正負(fù)樣本特征,按照(6),(7)式更新分類器參數(shù);
6) 輸出當(dāng)前追蹤位置和分類器參數(shù).
循環(huán)迭代到(4),繼續(xù)處理下一幀.
算法流程圖如圖1所示.
3 實(shí)驗(yàn)結(jié)果及其分析
實(shí)驗(yàn)采用標(biāo)準(zhǔn)測(cè)試集[10]中有代表性的視頻序列(FaceOcc1、David及Boy)進(jìn)行視頻追蹤實(shí)驗(yàn).采用中心位置偏移誤差衡量本算法.
FaceOcc1視頻序列存在嚴(yán)重遮擋的情況,要求追蹤算法能在女孩用書遮擋的過(guò)程中,正確追蹤女孩臉部.實(shí)驗(yàn)證明,本算法能較好地提取追蹤區(qū)域的紋理特征,追蹤結(jié)果如圖2所示.
David 視頻序列存在復(fù)雜的光照、目標(biāo)尺度變化和背景雜波的情況.追蹤結(jié)果如圖3所示,第2幀和第459幀之間,目標(biāo)有明晰的尺度變化,亮度也逐漸由暗到明,背景變化較大,可以看出追蹤的效果良好.
Boy視頻序列中存在目標(biāo)快速移動(dòng)和運(yùn)動(dòng)模糊的情況.本算法采用LBP提取正負(fù)樣本的局部特征,同時(shí)實(shí)時(shí)壓縮特征信息進(jìn)行準(zhǔn)確有效的追蹤,實(shí)驗(yàn)結(jié)果如圖4所示.
將處理視頻流的幀速率設(shè)為35 fps,每間隔300 ms取1幀圖像,有效且實(shí)時(shí)地追蹤目標(biāo),實(shí)驗(yàn)結(jié)果如表1所示.
4 結(jié) 語(yǔ)
提出了一個(gè)簡(jiǎn)單快速且穩(wěn)健性較好的追蹤算法,基于LBP提取樣本特征,采用一種十分稀疏的隨機(jī)測(cè)量矩陣壓縮正負(fù)樣本特征,在線追蹤過(guò)程采用樸素貝葉斯二元分類處理.對(duì)測(cè)試視頻數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果表明本算法在準(zhǔn)確度、穩(wěn)健性和速度等方面性能較優(yōu)越.
參考文獻(xiàn):
[1] Yilmaz A,Javed O,Shah M.Object tracking:A survey [J].ACM Computing Surveys,2006,38(4):13.
[2] Zhang K,Zhang L,Yang M H.Fast compressive tracking [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.
[3] Hare S,Golodetz S,Saffari A,et al.Struck:Structured output tracking with kernels [C].2011 IEEE International Conference on Computer Vision.Barcelona:IEEE,2011.
[4] Zhong W,Lu H,Yang M H.Robust object tracking via sparsity-based collaborative model [C].2012 IEEE Conference on Computer Vision and Pattern Recognition.Providence:IEEE,2012.
[5] Xu J.Visual tracking via adaptive structural local sparse appearance model [C].2012 IEEE Conference on Computer Vision and Pattern Recognition,Washington,D.C.:ACM,2012.
[6] Henriques J F,Caseiro R,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels [C].12th European conference on Computer Vision.Florence:ACM,2012.
[7] Zhang T,Liu S,Ahuja N,et al.Robust visual tracking via consistent low-rank sparse learning [J].International Journal of Computer Vision,2015,111(2):171-190.
[8] Ross D A,Lim J,Lin R S,et al.Incremental learning for robust visual tracking [J].International Journal of Computer Vision,2008,77(1-3):125-141.
[9] Zhang K,Liu Q,Wu Y,et al.Robust visual tracking via convolutional networks without training [J].IEEE Signal Processing Society,2016,25(4):1779-1792.
[10] Wu Y,Lim J,Yang M H.Online object tracking:A benchmark [C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Portland:IEEE,2013.
(責(zé)任編輯:包震宇)