国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速目標(biāo)跟蹤

2016-10-13 13:45吳正平崔曉夢張慶年
電子與信息學(xué)報 2016年11期
關(guān)鍵詞:范數(shù)魯棒性姿態(tài)

吳正平 楊 杰 崔曉夢 張慶年

?

融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速目標(biāo)跟蹤

吳正平①②楊 杰*①崔曉夢①張慶年①

①(武漢理工大學(xué)光纖傳感技術(shù)與信息處理教育部重點實驗室 武漢 430070)②(三峽大學(xué)計算機(jī)與信息工程學(xué)院 宜昌 443002)

在貝葉斯推理框架下,基于PCA子空間和L2范數(shù)最小化的目標(biāo)跟蹤算法能較好地處理視頻場景中多種復(fù)雜的外觀變化,但在目標(biāo)出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移現(xiàn)象。針對這一問題,該文提出一種融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速視覺跟蹤方法。該方法通過去除規(guī)模龐大的方塊模板集和簡化觀測似然度函數(shù)降低計算的復(fù)雜度;而壓縮Haar-like特征匹配技術(shù)則增強(qiáng)了算法對目標(biāo)姿態(tài)變化及旋轉(zhuǎn)的魯棒性。實驗結(jié)果表明:與目前流行的跟蹤方法相比,該方法對嚴(yán)重遮擋、光照突變、快速運(yùn)動、姿態(tài)變化和旋轉(zhuǎn)等干擾均具有較強(qiáng)的魯棒性,且在多個測試視頻上可以達(dá)到29幀/s的速度,能滿足快速視頻跟蹤要求。

目標(biāo)跟蹤;PCA子空間;L2范數(shù)最小化;壓縮Haar-like特征;觀測似然度

1 引言

自動目標(biāo)跟蹤一直是計算機(jī)視覺領(lǐng)域一個核心問題,目前在智能視頻監(jiān)控、船舶航跡跟蹤、機(jī)器人導(dǎo)航等方面有著廣泛的應(yīng)用。經(jīng)典的目標(biāo)跟蹤方法包括均值漂移算法和粒子濾波算法。一般認(rèn)為前者實時性好,但在遮擋等情況下容易陷入局部極值而導(dǎo)致跟蹤的魯棒性變差;后者具有較強(qiáng)的抗遮擋和背景干擾能力,但計算量大,難于滿足實時跟蹤要求。近二十年來,大量學(xué)者對視頻跟蹤問題進(jìn)行深入研究,并提出了多種類型的跟蹤算法?;谕庥^模型的跟蹤算法一般可分為兩大類:生成式算法和判別式算法。

生成式跟蹤算法首先要通過學(xué)習(xí)得到表示目標(biāo)的外觀模型,然后搜尋具有最小重建誤差的候選目標(biāo)作為跟蹤結(jié)果。文獻(xiàn)[3]提出的IVT(Incremental learning for robust Visual Tracking)算法利用在線學(xué)習(xí)到的PCA(Principal Component Analysis)子空間對目標(biāo)進(jìn)行線性表示,并利用增量學(xué)習(xí)的方式對子空間進(jìn)行更新。2011年,文獻(xiàn)[4]將稀疏表示理論應(yīng)用到目標(biāo)跟蹤中,提出了著名的L1-track (visual tracking usingminimization)算法,用一組目標(biāo)模板和瑣碎模板對目標(biāo)進(jìn)行L1范數(shù)最小化稀疏表示,較好地解決了部分遮擋問題。但L1-track在每一幀中都必須求解數(shù)百次的L1范數(shù)最小化,極大地限制了該算法在實時跟蹤中的應(yīng)用。通過引入最小誤差界限(minimal error bounding)策略,文獻(xiàn)[5]大幅提高了L1-track的處理速度,但依然不能滿足實時處理要求。2012年,文獻(xiàn)[6]提出一種關(guān)于L1范數(shù)最小化問題的快速數(shù)值解法,進(jìn)一步提高了L1-track的時效性(稱之為APG-L1算法)。近年來一些學(xué)者采用L2范數(shù)最小化來進(jìn)行人臉識別研究,取得了和基于稀疏表示理論的算法一樣甚至更高的識別度,更重要的是,L2范數(shù)最小化問題可用嶺回歸分析求解,其時間消耗遠(yuǎn)低于L1范數(shù)最小化。2012年,文獻(xiàn)[8,9]將L2范數(shù)引入到視頻跟蹤(稱之為L2算法),并使用PCA子空間基向量(PCA subspace vectors)和方塊模板(square templates)替換L1-track中的目標(biāo)模板和瑣碎模板,在大量數(shù)據(jù)集上均取得了很高的跟蹤精度,是目前非常優(yōu)秀的跟蹤算法之一。2013年,文獻(xiàn)[10]完全去除L2算法中的方塊模板,使得目標(biāo)表示系數(shù)的求解變得更加簡單和迅速,得到了一種真正意義上的實時目標(biāo)跟蹤算法(稱之為PCAL2算法)。然而這兩種算法都未能解決當(dāng)目標(biāo)出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移的問題。

判別式跟蹤算法則將視頻跟蹤問題轉(zhuǎn)化為一個二分類問題,即找尋一個將目標(biāo)和背景區(qū)別開來的最佳判別界限。2012年,文獻(xiàn)[15]提出的實時壓縮跟蹤算法(real-time Compressive Tracking,稱之為CT算法)是該類算法最典型代表之一。CT算法通過一個可離線計算得到隨機(jī)測量矩陣來壓縮Haar-like特征,極大地減少了提取目標(biāo)外觀特征所花費(fèi)的時間,使得CT算法的跟蹤速度遠(yuǎn)快于之前提到APG-L1, L2以及PCAL2算法。文獻(xiàn)[16]提出了基于核相關(guān)濾波器的快速目標(biāo)跟蹤算法(high-speed tracking with Kernelized Correlation Filters, 稱之為KCF算法),其中分類器中的樣本通過快速傅里葉變換轉(zhuǎn)換到頻域進(jìn)行運(yùn)算,極大地提高了算法的時效性,是目前實時性最好的跟蹤算法之一。但上述兩種算法均缺乏有效的抗遮擋機(jī)制,對于嚴(yán)重遮擋和光照突變比較敏感。

針對當(dāng)前視頻跟蹤算法中存在的挑戰(zhàn),本文提出了一種融合L2范數(shù)和壓縮Haar-like特征的快速視頻目標(biāo)跟蹤算法。首先利用增量學(xué)習(xí)的PCA子空間對目標(biāo)進(jìn)行線性表示,建立基于L2范數(shù)最小化的目標(biāo)表示模型,并完全舍棄規(guī)模相對龐大的方塊模板,使得目標(biāo)表示系數(shù)的求解更加簡單;但不同于L2和PCAL2,本文所建立的觀測似然度模型僅利用殘差向量的L1范數(shù),可更快地對候選目標(biāo)進(jìn)行估計;最后,考慮PCAL2算法對旋轉(zhuǎn)或姿態(tài)變化較為敏感的問題,本文引入壓縮Haar-like特征匹配技術(shù),并通過最小誤差界限準(zhǔn)則去除大多數(shù)非重要的粒子,以極小的時間代價增強(qiáng)了算法在復(fù)雜環(huán)境下的魯棒性。

2 基于L2范數(shù)最小化的目標(biāo)表示

2.1基于PCA子空間目標(biāo)線性表示

主成分分析法(PCA)將灰度圖像數(shù)據(jù)映射到低維子空間以獲取目標(biāo)外觀的潛在特征,因而濾除了一些噪聲,對于視點變化、尺度變化、光照變化等具有良好的適用性。假定目標(biāo)存在于子空間中,那么觀測向量可以由中的基向量進(jìn)行線性表示,即

2.2 L2范數(shù)最小化求解編碼系數(shù)

可得

3 目標(biāo)跟蹤算法框架

3.1貝葉斯MAP估計

本文把目標(biāo)跟蹤問題看成隱馬爾科夫模型中隱藏狀態(tài)變量的貝葉斯MAP估計問題。給定一組目標(biāo)在第幀時的觀測向量,那么可通過式(5)遞推估計隱藏變量:

3.2狀態(tài)轉(zhuǎn)移模型

本文選取仿射變換的6個參數(shù)來對目標(biāo)的運(yùn)動變化進(jìn)行描述,即目標(biāo)狀態(tài)變量定義為

3.3目標(biāo)觀測模型

再根據(jù)式(1)可計算其重建誤差(也稱殘差),即

但文獻(xiàn)[9]的作者通過實驗觀察發(fā)現(xiàn),在觀測似然度函數(shù)中引入殘差的L1范數(shù)將有益于提高跟蹤算法的魯棒性和跟蹤精度,受此啟發(fā),本文定義的觀測似然度函數(shù)如式(12)

圖1 兩種觀測似然度函數(shù)下跟蹤精度對比

從圖1可以看出,兩種觀測似然度函數(shù)下得到的中心誤差曲線幾乎是重合的。而從中心誤差平均值和標(biāo)準(zhǔn)差兩個指標(biāo)來看,采用L1范數(shù)取得了更佳的跟蹤精度,可見本文將觀測似然函數(shù)設(shè)計為殘差L1范數(shù)的指數(shù)函數(shù)是合理的。從計算代價來看,式(11)的時間復(fù)雜度為;而式(12)無乘法運(yùn)算,其時間消耗可以忽略不計,因此用式(12)代替式(11)在一定程度上提高了算法的實時性。最后,第幀目標(biāo)的最佳狀態(tài)值可以通過選取似然度最大的候選目標(biāo)來獲得。

3.4 PCA子空間更新

本文采取與文獻(xiàn)[9,10]類似的基于遮擋率(occlusion-ratio-based)的更新機(jī)制來對PCA子空間的基向量進(jìn)行更新。在得到當(dāng)前幀的最佳狀態(tài)值后,利用式(10)可求出其對應(yīng)的殘差向量,那么反映目標(biāo)被遮擋程度的遮擋率定義為

3.5 融合壓縮Haar-like特征匹配

為提高跟蹤算法對目標(biāo)姿態(tài)變化及旋轉(zhuǎn)的魯棒性,引入壓縮Haar-like特征匹配技術(shù)。該技術(shù)主要由不等式融合條件、壓縮Haar-like特征提取及匹配和去除非重要性粒子3部分組成。

3.5.1不等式融合條件 首先通過式(14)獲得當(dāng)前幀和前一幀的遮擋率和。如果它們滿足下面不等式約束:

那么啟用Haar-like特征匹配算法重新計算目標(biāo)的最佳狀態(tài)值。

3.5.2壓縮Haar-like特征提取 在CT算法中,任一樣本圖像塊(分別表示跟蹤矩形框的長和寬,且在跟蹤過程中保持不變)的壓縮Haar-like特征生成過程如下:首先將與一組矩形濾波器進(jìn)行卷積,得到一個高維圖像Haar-like特征向量;然后在一滿足有限等距性質(zhì)(RIP)的隨機(jī)測量矩陣協(xié)助下,實現(xiàn)將高維特征映射為低維特征,即

進(jìn)一步利用最小誤差界準(zhǔn)則來去除大多數(shù)非重要粒子,以提高算法的實時性。重要粒子需滿足式(20):

3.6 算法流程

綜上所述,本文算法流程如表1所示。

表1本文算法流程

輸入:第幀圖像數(shù)據(jù);第幀時的目標(biāo)狀態(tài)、壓縮Haar-like特征向量和遮擋率;跟蹤矩形框長W和寬H;粒子數(shù)量N。(1)利用狀態(tài)轉(zhuǎn)移模型,即式(8)生成N個粒子,獲取每個候選目標(biāo)中心位置對應(yīng)的圖像塊,并對其進(jìn)行歸一化拉伸為向量,接著利用計算投影矩陣;(2)對所有觀測向量按式(9)和式(10)分別計算表示系數(shù)和殘差;(3)按式(12)計算觀測似然度,按式(13)和式(14)分別獲得目標(biāo)最佳狀態(tài)和目標(biāo)被遮擋程度;(4)如果滿足式(16),則順序執(zhí)行,否則轉(zhuǎn)向步驟(7);(5)按式(20)篩選出重要性粒子,獲取這些粒子對應(yīng)圖像塊并計算其對應(yīng)的壓縮Haar-like特征向量集;(6)按式(19)計算特征相似度,按式(21)重新計算目標(biāo)最佳狀態(tài);(7)執(zhí)行賦值;(8)按式(17)計算并保存圖像塊對應(yīng)的壓縮Haar-like特征向量,記為;輸出:第幀時的目標(biāo)狀態(tài)、壓縮Haar-like特征向量和遮擋率。

4 實驗結(jié)果與分析

4.1實驗平臺及實驗參數(shù)設(shè)定

表2 實驗中的測試視頻

4.2對比實驗結(jié)果的定性評估

在視頻測試序列“FaceOcc1”,“Caviar2”,“Car4”和“Deer”中存在嚴(yán)重遮擋、尺度變化、劇烈的光線變化和快速運(yùn)動等干擾因素(如圖2第1~4行所示)。從圖2所示的實驗結(jié)果可以看出,本文算法、L2及PCAL2的跟蹤性能要優(yōu)于其他4種算法。IVT算法由于其采用的模板更新機(jī)制較為簡單,在“Car4”和“Deer”視頻序列最終跟蹤失敗。CT算法因其缺乏有效的抗遮擋機(jī)制,當(dāng)目標(biāo)被深度遮擋(如“FaceOcc1”中第534幀和“Caviar2”中第197幀)或發(fā)生光線突變(如“Car4”中第233幀)后,跟蹤出現(xiàn)漂移并逐漸丟失目標(biāo)。KCF算法因同樣的原因?qū)е缕洳荒芎芎玫貞?yīng)對嚴(yán)重遮擋和光線突變等干擾,在“FaceOcc1”和“Caviar2”兩個視頻序列中最終丟失目標(biāo)(如“FaceOcc1”中第838幀和“Caviar2”中第429幀);在“Car4”視頻序列中雖然沒有丟失目標(biāo),但隨著其跟蹤窗口中引入的背景干擾信息逐漸積累,最終也出現(xiàn)了一定程度的跟蹤漂移(如第630幀)。APG-L1算法雖然在整個“FaceOcc1”視頻序列中成功跟蹤目標(biāo),但它的穩(wěn)定較差,在“Caviar2”,“Car4”和“Deer”視頻序列上最終丟失目標(biāo)。本文算法、L2及PCAL2在出現(xiàn)嚴(yán)重遮擋、尺度變化、劇烈光線變化和快速運(yùn)動等異常情況下表現(xiàn)出良好的魯棒性,主要歸因于以下兩點:一是PCA子空間對于尺度變化和光照變化等具有良好的適用性;二是基于遮擋率的更新機(jī)制大大增強(qiáng)了跟蹤算法的抗遮擋性能。

在視頻測試序列“David”,“Dudek”和“Sylvester2008b”中主要存在姿態(tài)變化和旋轉(zhuǎn)兩種干擾(如圖2第5~7行所示)。在“David”視頻跟蹤實驗中,當(dāng)“David”轉(zhuǎn)動其頭部時(如第475幀),L2和PCAL2均丟失目標(biāo)。盡管PCAL2之后成功跟蹤上目標(biāo)(如第564幀),但它的性能并不穩(wěn)定,在第659, 705幀再次丟失目標(biāo)。在“Dudek”和“Sylvester2008b”視頻序列中的測試結(jié)果同樣表明它們對于姿態(tài)變化和旋轉(zhuǎn)較為敏感,在“Dudek”中第476, 550幀及“Sylvester2008b”中第187, 274, 360幀均丟失目標(biāo)。CT和KCF均利用大量目標(biāo)周圍的樣本數(shù)據(jù)在線訓(xùn)練和更新樸素貝葉斯分類器或RLS分類器,能很好地應(yīng)對姿態(tài)變化和旋轉(zhuǎn)等干擾因素,在整個視頻中都能持續(xù)穩(wěn)定地跟蹤目標(biāo)。本文算法則采用壓縮Haar-like特征來區(qū)分背景和目標(biāo),也取得了良好的跟蹤效果,這說明本文算法在處理姿態(tài)變化和旋轉(zhuǎn)等干擾時較L2和PCAL2算法具有更強(qiáng)的魯棒性。

在視頻序列“Lemming”中,存在嚴(yán)重遮擋、尺度變化、旋轉(zhuǎn)、快速運(yùn)動與運(yùn)動模糊等多種干擾因素(如圖2最后一行所示)。在這個極具挑戰(zhàn)性的視頻中,只有本文算法能夠完成整個視頻的跟蹤,這主要是因為本文算法結(jié)合了基于L2范數(shù)最小化的跟蹤算法和Haar-like特征匹配技術(shù)的優(yōu)點,能很好地應(yīng)對各種復(fù)雜的外觀變化。

4.3對比實驗結(jié)果的定量評估

為對各種算法進(jìn)行全面客觀的評價,除采用中心位置誤差這個經(jīng)典度量標(biāo)準(zhǔn)外,還利用重疊率來定量評價跟蹤算法的性能,其中是算法在某幀的跟蹤矩形框所覆蓋的區(qū)域,則是該幀目標(biāo)所在的真實區(qū)域。表3和表4給出了所有跟蹤算法在全部視頻序列上的平均中心誤差和平均重疊率。

從表3和表4可以看出,本文算法由于綜合了PCAL2算法和Haar-like特征匹配技術(shù)的優(yōu)點,在全部測試視頻上均取得了最佳或次佳的結(jié)果。對于存在較大姿態(tài)變化和旋轉(zhuǎn)的“David”,“Dudek”,“Sylvester2008b”和“Lemming”4個視頻序列,本文算法的跟蹤精度則明顯優(yōu)于IVT, L1-APG, L2和PCAL2算法;而對于另外的4個視頻序列,本文算法的跟蹤精度則明顯優(yōu)于CT和KCF兩種算法。

圖2 本文算法與其他6種跟蹤算法在8個測試視頻的部分跟蹤結(jié)果

(從上到下分別對應(yīng)“FaceOcc1”, “Caviar2”, “Car4”, “Deer”, “David”, “Dudek”, “Sylvester2008b”和“Lemming”)

4.4對比不同跟蹤算法平均處理速度

為了檢驗融入特征匹配技術(shù)對跟蹤算法處理速度的影響,統(tǒng)計了本文算法及與其相近的IVT, L2和PCAL2在對“FaceOcc1”,“Caviar2”,“Car4”,“David”和“Lemming”等5個視頻序列進(jìn)行跟蹤實驗時的平均處理速度,詳見表5。從表5可以看出,本文跟蹤方法的平均處理速度達(dá)29 幀/s,明顯快于IVT和L2算法,能滿足快速視頻跟蹤要求。盡管壓縮Haar-like特征提取模塊增加了本文算法的耗時,但由于以下3個方面的原因:(1)單個圖像塊的壓縮Haar-like特征提取耗時極少(在本文的實驗平臺上約為s);(2)去除了大多數(shù)非重要性粒子;(3) 觀測似然度函數(shù)中僅使用殘差的L1范數(shù),本文算法取得了和PCAL2相當(dāng)?shù)奶幚硭俣取?/p>

表3平均中心誤差(像素)

跟蹤算法FaceOcc1Caviar2Car4DeerDavidDudekSylvester2008bLemming平均值 IVT37.83.298.1271.1113.4 78.6196.8188.1123.4 CT41.566.190.6 38.8 15.7 55.0 15.1 91.2 51.8 APG-L119.566.092.7176.7 22.9119.7 77.0181.5 94.5 L2 6.4 2.8 3.0 9.7133.6 95.4118.3 69.2 54.8 PCAL2 6.6 6.0 3.6 8.9 59.5 65.7 79.7 74.6 38.1 KCF51.033.611.4 23.5 13.3 10.2 4.0107.3 31.8 本文算法 6.5 2.6 3.4 8.6 13.2 13.4 6.1 9.8 8.0

注:粗體字代表最佳結(jié)果,斜體字代表次佳結(jié)果

表4平均重疊率

跟蹤算法FaceOcc1Caviar2Car4DeerDavidDudekSylvester2008bLemming平均值 IVT0.560.800.270.030.090.450.010.050.28 CT0.520.170.250.390.530.410.490.270.38 APG-L10.710.320.250.050.430.180.060.140.27 L20.870.750.890.700.110.530.200.380.55 PCAL20.870.730.870.730.330.540.340.380.60 KCF0.570.280.750.630.570.820.850.230.59 本文算法0.870.770.880.730.570.770.750.500.73

注:粗體字代表最佳結(jié)果,斜體字代表次佳結(jié)果

表5不同算法的平均處理速度(幀/s)

跟蹤算法FaceOcc1Caviar2Car4DavidLemming平均值 IVT22.622.722.123.8 9.520.1 L221.419.620.623.917.920.7 PCAL227.029.230.331.324.528.5 本文算法28.531.133.927.923.529.0

5 結(jié)論

本文針對基于L2范數(shù)最小化的視覺跟蹤算法在目標(biāo)出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移的不足,提出了一種融合L2范數(shù)最小化和壓縮Haar-like特征匹配技術(shù)的快速視覺跟蹤算法。一方面,該方法完全去除L2算法中的方塊模板集,并將觀測似然度函數(shù)簡化為殘差L1范數(shù)的指數(shù)函數(shù),加快了目標(biāo)跟蹤的速度,在多個測試視頻上可以達(dá)到29幀/s的速度;另一方面,該方法通過融入壓縮Haar-like特征匹配技術(shù)來適應(yīng)目標(biāo)外觀的變化,提高了跟蹤算法對目標(biāo)姿態(tài)變化及旋轉(zhuǎn)的魯棒性。最后利用多個具有挑戰(zhàn)性的視頻對提出的跟蹤方法進(jìn)行實驗驗證,并與多個目前流行的跟蹤方法進(jìn)行了定性和定量比較,實驗結(jié)果表明:本文提出的跟蹤方法對嚴(yán)重遮擋、光線突變、快速運(yùn)動、姿態(tài)變化及旋轉(zhuǎn)均具有較強(qiáng)的魯棒性,且處理速度可滿足快速視頻跟蹤要求。

[1] COMANICIU D, RAMESH V, and MEER P. Real-time tracking of non-rigid objects using mean shift[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head, SC, USA, 2000: 142-149.

[2] KATJA N, ESTHER K M, and LUC V G. An adaptive color-based filter[J]., 2003, 21(1): 99-110.

[3] ROSS D, LIM J, LIN R S,. Incremental learning for robust visual tracking[J]., 2008, 77(1-3): 125-141. doi: 10.1007/s11263- 007-0075-7.

[4] MEI Xue and LING Haibin. Robust visual tracking usingminimization[C]. Proceedings of IEEE International Conference on Computer Vision, Kyoto, Japan, 2009: 1436-1443.

[5] MEI Xue, LING Haibin, WU Yi,. Minimum error bounded efficienttracker with occlusion detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Colorado, USA, 2011: 1257-1264.

[6] BAO Chenglong, WU Yi, LING Haibin,. Real time robust1tracker using accelerated proximal gradient approach[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island, USA, 2012: 1830-1837.

[7] SHI Qinfeng, ERIKSSON A, VAN DEN HENGEL A,. Is face recognition really a compressive sensing problem?[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Colorado, USA, 2011: 553-560.

[8] XIAO Ziyang, LU Huchuan, and WANG Dong. Object tracking with L2_RLS[C]. Proceedings of 21st International Conference on Pattern Recognition, Tsukuba, Japan, 2012: 681-684.

[9] XIAO Ziyang, LU Huchuan, and WANG Dong. L2-RLS based object tracking[J].,2014, 24(8): 1301-1309. doi: 10.11834/jig.20140105.

QI Meibin, YANG Xun, YANG Yanfang,. Real-time object tracking based on L-norm minimization[J]., 2014, 19(1): 36-44. doi: 10.11834/jig. 20140105.

YUAN Guanglin and XUE Mogen. Robust coding via L-norm regularization for visual tracking[J].&, 2014, 36(8): 1838-1843. doi: 10.3724/SP.J.1146.2013.01416.

[12] WU Zhengping, YANG Jie, LIU Haibo,. A real-time object tracking via L2-RLS and compressed Haar-like features matching[J]., 2016: 1-17. doi: 10.1007/s11042-016-3356-8.

[13] HONG S and HAN B. Visual tracking by sampling tree-structured graphical models[C]. Proceedings of European Conference on Computer Vision, Zurich, Switzerland, 2014--: 1-16.

[14] ZHUANG Bohan, LU Huchuan, XIAO Ziyang,. Visual tracking via discriminative sparse similarity map[J]., 2014, 23(4): 1872-1881. doi: 10.1109/TIP.2014.2308414.

[15] ZHANG Kaihua, ZHANG Lei, and YANG Minghsuan. Real-time compressive tracking[C]. Proceedings of European Conference on Computer Vision, Florence, Italy, 2012: 864-877.

[16] HENRIQUES J, CASEIRO R, MARTINS P,. High-speed tracking with kernelized correlation filters[J]., 2015, 37(3): 583-596. doi: 10.1109/TPAMI. 2014.2345390.

[17] LI Hanxin, LI Yi, and FATIH P. Deep track: learning discriminative feature representations by convolutional neural networks for visual tracking[C]. Proceedings of the British Machine Vision Conference, Nottingham, United Kingdom, 2014: 110-119.

[18] WU Zhengping, YANG Jie, LIU Haibo,. Robust compressive tracking under occlusion[C]. Proceedings of International Conference on Consumer Electronics, Berlin, Germany, 2015: 298-302.

[19] WU Yi, LIM J, and YANG Minghsuan. Online object tracking: a benchmark[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Portland, ORegon, USA, 2013: 2411-2418.

Fast Object Tracking Based on L2-norm Minimization and Compressed Haar-like Features Matching

WU Zhengping①②YANG Jie①CUI Xiaomeng①ZHANG Qingnian①

①(,,,430070,)②(,,443002,)

Under the framework of the Bayesian inference,tracking methods based on PCA subspace and L2-norm minimization can deal with some complex appearance changes in the video scene successfully. However, they are prone to drifting or failure when the target object undergoes pose variation or rotation. To deal with this problem, a fast visual tracking method is proposed based on L2-norm minimization and compressed Haar-like features matching. The proposed method not only removes square templates, but also presents a simple but effective observation likelihood, and its robustness to pose variation and rotation is strengthened by Haar-like features matching. Compared with other popular method, the proposed method has stronger robustness to abnormal changes (e.g. heavy occlusion, drastic illumination change, abrupt motion, pose variation and rotation, etc). Furthermore, it runs fast with a speed of about 29 frames/s.

Object tracking; PCA subspace; L2-norm minimization; Compressed Haar-like feature; Observation likelihood

TP391

A

1009-5896(2016)11-2803-08

10.11999/JEIT160122

2016-01-26;改回日期:2016-06-08;

2016-09-08

楊杰 jieyang509@163.com

國家自然科學(xué)基金(51479159)

The National Natural Science Foundation of China (51479159)

吳正平: 男,1978年生,博士生,研究方向為數(shù)字圖像處理、計算機(jī)視覺等.

楊 杰: 女,1961年生,博士,教授,博士生導(dǎo)師,主要研究方向為模式識別、機(jī)器學(xué)習(xí)、人工智能等.

崔曉夢: 女,1983年生,博士生,研究方向為大數(shù)據(jù)處理、模式識別等.

張慶年: 男,1957年生,博士,教授,博士生導(dǎo)師,主要研究方向為交通運(yùn)輸安全管理、交通運(yùn)輸系統(tǒng)優(yōu)化與決策、物流系統(tǒng)優(yōu)化與設(shè)計等.

猜你喜歡
范數(shù)魯棒性姿態(tài)
向量范數(shù)與矩陣范數(shù)的相容性研究
攀爬的姿態(tài)
荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評價
全新一代宋的新姿態(tài)
跑與走的姿態(tài)
基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
如何解決基不匹配問題:從原子范數(shù)到無網(wǎng)格壓縮感知
基于非支配解集的多模式裝備項目群調(diào)度魯棒性優(yōu)化
西南交通大學(xué)學(xué)報(2016年6期)2016-05-04