郭敬明,何 昕,魏仲慧
(1.中國(guó)科學(xué)院 長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,吉林 長(zhǎng)春,130033;2.中國(guó)科學(xué)院大學(xué),北京100049)
目標(biāo)跟蹤廣泛應(yīng)用于智能視頻監(jiān)控、智能機(jī)器人及國(guó)防安全方面等領(lǐng)域。如何在視頻序列中對(duì)目標(biāo)進(jìn)行穩(wěn)健、實(shí)時(shí)跟蹤,是計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn)問題。穩(wěn)健性要求算法能夠克服光照、姿態(tài)變化,目標(biāo)快速運(yùn)動(dòng),部分遮擋等干擾因素的影響;實(shí)時(shí)性要求算法必須有較高的搜索效率,計(jì)算耗時(shí)少,其實(shí)質(zhì)是如何在當(dāng)前幀內(nèi)快速運(yùn)算鎖定目標(biāo)。
文獻(xiàn)[1]將目標(biāo)跟蹤算法分為兩類:一類是基于“濾波、數(shù)據(jù)關(guān)聯(lián)”的跟蹤方法,代表為粒子濾波[2](particle filter)及其改進(jìn)算法[3-5];一類是基于“目標(biāo)建模、定位”的跟蹤方法,代表為Mean Shift[6]及其改進(jìn)算法[7-8]。由于粒子濾波收斂速度慢,算法復(fù)雜度與粒子數(shù)成正比,且過多依賴參數(shù),而Mean Shift是一種基于核密度估計(jì)的無參數(shù)的、基于微分方法的模式匹配搜索算法,計(jì)算復(fù)雜度低,具有很好的實(shí)時(shí)性,因此在目標(biāo)實(shí)時(shí)跟蹤系統(tǒng)中應(yīng)用越來越廣泛[9-15]。
盡管Mean Shift應(yīng)用十分廣泛,但有兩個(gè)基本的缺陷:(1)目標(biāo)模板只能從單一圖像建立;(2)模板很難自適應(yīng)更新。針對(duì)以上問題,相關(guān)學(xué)者提出了多種改進(jìn)方案。文獻(xiàn)[5]提出用Mean Shift與粒子濾波相結(jié)合的多模式融合跟蹤算法,分別跟蹤后,采用加權(quán)參考函數(shù)定位目標(biāo),但粒子濾波器的復(fù)雜計(jì)算降低了系統(tǒng)的實(shí)時(shí)性。文獻(xiàn)[12]提出在線特征選擇機(jī)制來對(duì)特征進(jìn)行排序,選擇區(qū)分能力最強(qiáng)的特征來建立模板,將顏色R、G、B特征以不同權(quán)值組合找到具有更具判決能力的特征,這樣也將大大增加算法的復(fù)雜度。文獻(xiàn)[11]研究了跟蹤過程中在線學(xué)習(xí)的重要性,模型的更新能夠捕獲目標(biāo)或背景的變化。文獻(xiàn)[10]提出了模板在線更新的Mean Shift算法,通過將跟蹤問題看作目標(biāo)和背景的分類問題,引入支持向量機(jī)(Support Vector Machine)分類函數(shù)置信度,將最小化距離函數(shù)轉(zhuǎn)換為最大化分類函數(shù)置信度,但其沒有給出在線支持向量機(jī)的實(shí)現(xiàn)方法,且針對(duì)彩色RGB空間加權(quán)求得灰度建立目標(biāo)及背景模型,在光照發(fā)生變化或有陰影時(shí)有明顯缺陷[15]。
針對(duì)上述算法的優(yōu)缺點(diǎn),本文提出了基于HSV 彩色空間的在線SVM 的Mean Shift跟蹤算法。為克服RGB 顏色空間在光照變化及陰影效應(yīng)下的缺陷,將RGB 空間變換到HSV 空間,首先分別建立H、S、V 核直方圖,然后建立統(tǒng)一的HSV 核直方圖,并賦予各分量不同權(quán)重,最后將HSV 核直方圖融合到基于在線SVM[13]的Mean Shift跟蹤算法框架中,在計(jì)算復(fù)雜度不變的情況下,提高了跟蹤定位精度。實(shí)驗(yàn)表明,本文算法優(yōu)于傳統(tǒng)Mean Shift算法、Particle Filter及文獻(xiàn)[10]算法,穩(wěn)健性、實(shí)時(shí)性均有較大提高。
文獻(xiàn)[1]提出了基于核估計(jì)的目標(biāo)跟蹤方法,文中核基的跟蹤方法即為Mean Shift跟蹤方法。目標(biāo)和候選目標(biāo)的模型是對(duì)圖像目標(biāo)區(qū)域的歸一化核基直方圖向量:
假定目標(biāo)區(qū)域由n個(gè)像素點(diǎn)構(gòu)成{Xi},i=1,…n構(gòu)成,其中Xi=(xi,yi)為圖像像素坐標(biāo),直方圖bin量化個(gè)數(shù)為m,則目標(biāo)的核直方圖模型為:
式中,δ為Kronecker delta函數(shù)。窗口的帶寬矩陣為h,用來限定目標(biāo)的像素個(gè)數(shù)。b(Xi)為映射函數(shù),將Xi對(duì)應(yīng)的特征映射到bin值。c為窗口中心位置坐標(biāo)。k(x)為輪廓函數(shù),為每個(gè)像素賦予不同的權(quán)值,權(quán)值大小與距離目標(biāo)中心的距離成反比,一定程度上增加了模型的可靠性,因?yàn)榭拷鈧?cè)的像素易被遮擋或受背景干擾;同時(shí),使目標(biāo)函數(shù)成為光滑函數(shù),可以由微分法計(jì)算。常用的核函數(shù)包括高斯核函數(shù)和Epanechnikov函數(shù)。C 為歸一化系數(shù)。
相應(yīng)地,中心位置位于y 的候選目標(biāo)模型定義為:
相似性度量函數(shù)用來計(jì)算在特征空間中目標(biāo)與候選目標(biāo)之間的距離。Mean Shift常用的是Bhattacharyya距離:
Mean Shift跟蹤原理是找到位置y,使其在所屬特征空間中與目標(biāo)距離最小,即Bhattacharyya系數(shù)ρ[p(y),q]最大。上述優(yōu)化問題,可以通過以下迭代過程求解:
式中,g(x)=-k′(x),當(dāng)|^y-y|<ε時(shí)本幀迭代終止,ε為設(shè)定的閾值。
支持向量機(jī)(SVM)是基于VC 維理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理,克服了傳統(tǒng)機(jī)器學(xué)習(xí)中的維數(shù)災(zāi)難問題。SVM 在處理線性不可分問題中應(yīng)用十分廣泛,通過將訓(xùn)練數(shù)據(jù)從輸入空間映射到高維,甚至無限維空間,SVM 求解最優(yōu)超平面等價(jià)于求解如下方程:
求解上式,可以得到SVM 的判別函數(shù):
其中:K(xi,x)=〈Φ(xi),Φ(x)〉,滿足Mercer條件的核函數(shù),常用的核函數(shù)有RBF 核函數(shù),多項(xiàng)式核函數(shù)等。xi為支持向量,Ns為支持向量個(gè)數(shù),αi為 不 同 支 持 向 量 的 權(quán) 值,b 為 偏 置 系 數(shù),yi為+1或-1。
支持向量機(jī)中核函數(shù)通常采用RBF核函數(shù)、多項(xiàng)式核函數(shù)等,但這些函數(shù)不是根據(jù)概率密度分布來定義的。而Mean Shift是根據(jù)顏色直方圖的密度函數(shù)進(jìn)行估計(jì)。通過p(xi)建立訓(xùn)練樣本xi概率密度模型,將核函數(shù)作為不同概率分布之間的相似性度量函數(shù),從而建立基于SVM 的Mean Shift跟蹤方法。
式(10)為PPK(probability product kernel)核函數(shù),而傳統(tǒng)Mean Shift 中采用的Bhattacharyya度量函數(shù)為ρ=1/2時(shí)的特殊情況。
f(x)>0,代表目標(biāo);f(x)<0,代表背景。q(xi)為第i個(gè)支持向量,|f(x)|代表置信度,當(dāng)|f(x)|遞增時(shí),表示迭代由初始值向跟蹤目標(biāo)優(yōu)化。為了后續(xù)與傳統(tǒng)Mean Shift進(jìn)行對(duì)比,這里核函數(shù)選擇Bhattacharyya系數(shù),即ρ=1/2。
將式(11)代入到式(12)中,得到基于圖像窗口的直方圖估計(jì),即候選目標(biāo)位置的判別函數(shù):
我們對(duì)式(13)進(jìn)行泰勒展開,保留一階量,忽略了二階及高階展開量,得到式(14):
其中:
上述優(yōu)化問題轉(zhuǎn)換為使f(^y)最大,得到迭代求解過程:
傳統(tǒng)Mean Shift方法目標(biāo)模型由單一圖像建立,且很難更新,當(dāng)光照、姿態(tài)變化,目標(biāo)快速運(yùn)動(dòng)等因素造成模型變化時(shí),極易造成目標(biāo)跟蹤失敗。為了更新模型,模型必須盡可能多地選擇樣本進(jìn)行訓(xùn)練學(xué)習(xí)。我們把目標(biāo)跟蹤問題視為目標(biāo)和背景的分類問題,可以將在線SVM 分類器融合到傳統(tǒng)Mean Shift框架中,使得跟蹤器更加魯棒。當(dāng)光照條件發(fā)生劇烈變化或存在陰影時(shí),R、G、B顏色空間有明顯的缺陷。基于以上分析,提出了基于HSV空間的在線SVM 的Mean Shift彩色圖像跟蹤方法。
HSV 是人們用來從調(diào)色板或顏色輪中挑選顏色所用的彩色系統(tǒng)之一,代表色調(diào)、飽和度和亮度值,它比RGB 空間更接近于人們對(duì)彩色的感知,在表征陰影及劇烈光照變化方面有更好的效果,可以由RGB轉(zhuǎn)換得到。
因此,我們將RGB 空間直方圖轉(zhuǎn)換為HSV空間直方圖作為相似性度量的特征。色調(diào)H 取值范圍為0°~360°,紅色為0°,綠色為120°,藍(lán)色為240°;飽和度S 取值范圍為0~100%;亮度值V 取值范圍為0~100%。
首先,獲取彩色圖像RGB 值,將RGB 值從0~255歸一化到0~1之間,然后按如下公式將RGB值轉(zhuǎn)換為HSV 值,為了便于計(jì)算,將HSV值轉(zhuǎn)換到0~255之間:
這樣,獲取目標(biāo)圖像RGB 值后,將RGB 值轉(zhuǎn)換到HSV 值,得到目標(biāo)模型HSV 核直方圖分量{qH,qS,qV}:
式(20)中,H,S,V 分別為色調(diào)、飽和度、亮度直方圖對(duì)應(yīng)的bin值個(gè)數(shù);h,s,v 分別為色調(diào)、飽和度、亮度對(duì)應(yīng)的bin值。同理,獲取候選目標(biāo)模型HSV 核直方圖分量{pH,pS,pV}。
然后,根據(jù)式(5)計(jì)算HSV 各分量Bhattacharyya系數(shù):
從而,建立加權(quán)合成的統(tǒng)一相似性度量函數(shù)。
式(22)中,0≤γ,λ≤1,為預(yù)先設(shè)定的HSV各分量的權(quán)重。依式(22)構(gòu)造新的滿足核函數(shù)性質(zhì)[14]的核函數(shù)為:
根據(jù)式(13)及式(23),得到基于SVM 的Mean Shift彩色圖像跟蹤算法判別函數(shù):
依照(14),通過泰勒展開得到其求解過程:
其中:b1(x),b2(x),b3(x)分別為色調(diào)、飽和度及亮度的映射函數(shù)。式(26)中,分子部分可以離線計(jì)算,因此,其算法復(fù)雜度與傳統(tǒng)Mean Shift相同,沒有增加額外的時(shí)間消耗。迭代求解式同式(16)。
(1)創(chuàng)建初始樣本空間。初始時(shí),在第1 幀圖像中手動(dòng)選取待跟蹤目標(biāo),窗口大小為m×n。按傳統(tǒng)Mean Shift跟蹤式(6)跟蹤N 幀圖像,并依次記錄下每次迭代的中心位置xi(i=1…N)。將以xi為中心m×n大小的區(qū)域圖像按式(17~19)轉(zhuǎn)換到HSV 空間,依(20)分別計(jì)算,得到N個(gè)正樣本,即(Xi=qH(xi)∪qs(xi)∪qV(xi),Yi=+1);同理,可以從這N 幀圖像中任意選取2×N 個(gè)m×n大小的不含目標(biāo)的區(qū)域,按上述步驟得到2×N 個(gè)負(fù)樣本為(Xi′=qH(xi′)∪qs(xi)∪qV(xi′),Yi′=-1)。
(2)訓(xùn)練生成初始支持向量。選取閾值ε及懲罰因子C,核函數(shù)為式(23),依據(jù)上述N 個(gè)正樣本和2×N 個(gè)負(fù)樣本,訓(xùn)練計(jì)算出(ω0,b0)、分類函數(shù)f0及支持向量SV0=qH(xi)∪qS(xi)∪qV(xi),yi)i=1…Ns)。
(3)在線支持向量機(jī)學(xué)習(xí)。當(dāng)跟蹤第N +t(t=1)幀圖像時(shí),依據(jù)式(16),(26)迭代求解目標(biāo)位置,迭代時(shí)初始位置選為上一幀目標(biāo)位置xN+1。以xN+1為中心m×n大小區(qū)域圖像產(chǎn)生1個(gè)新的正樣本,同時(shí),任意選取2 個(gè)不含目標(biāo)的區(qū)域產(chǎn)生負(fù)樣本,構(gòu)成新增樣本集It。根據(jù)決策函數(shù)f0尋找It中 違 反KKT 條 件[13]的 樣 本,記為,違反KKT 判決條件如式(27)所示:
若Ivt為空集,則令SVt+1=SVt,ft+1=ft,t=t+1,轉(zhuǎn)(3)。否則得到新樣本集T=SVt∪Ivt,進(jìn)行重新學(xué)習(xí)得到SVt+1,ft+1,t=t+1,轉(zhuǎn)(3)。
整個(gè)算法的實(shí)現(xiàn)過程簡(jiǎn)單描述如下:首先手動(dòng)選取第1幀待跟蹤目標(biāo),采用Mean Shift跟蹤第2~N 幀目標(biāo),得到當(dāng)前目標(biāo)位置的候選值,從每幀生成HSV 空間1 個(gè)正樣本和2 個(gè)負(fù)樣本;然后選擇閾值及懲罰因子等參數(shù),生成初始支持向量和分類函數(shù);最后,跟蹤后續(xù)幀時(shí)提取新增樣本,根據(jù)KKT 條件,判斷是否更新參考模板。算法流程如圖1所示。
圖1 算法流程圖Fig.1 Flow chart of algorithm
本文提出的跟蹤算法采用VC++6.0實(shí)現(xiàn),結(jié)果仿真采用Matlab7.1 平臺(tái)實(shí)現(xiàn)。實(shí)驗(yàn)均在Pentium Dual E2180 2.0Hz的PC 平臺(tái)上進(jìn)行。為了驗(yàn)證本文算法的有效性,對(duì)國(guó)際通用的兩組CAVIAR 彩色圖像序列[16]進(jìn)行跟蹤測(cè)試,給出了試驗(yàn)結(jié)果。
第一組為oneleaveshop序列,圖像分辨率為384×288,標(biāo) 準(zhǔn)PAL 制,幀 頻25 f/s,采 用MPEG2壓縮格式。部分跟蹤結(jié)果如圖1所示。
圖2中,綠色矩形是傳統(tǒng)Mean Shift跟蹤結(jié)果圖,矩形中十字為目標(biāo)中心;紅色矩形為本文算法跟蹤結(jié)果圖。第1幀由手動(dòng)方式確定待跟蹤的目標(biāo),紅、綠兩矩形重合。第28 幀時(shí),傳統(tǒng)Mean Shift算法還能定位準(zhǔn)確。但當(dāng)目標(biāo)尺寸及姿態(tài)發(fā)生一定變化時(shí),由于模板的單一性及無法更新,導(dǎo)致目標(biāo)跟蹤失敗,如第94幀,第175幀。
圖2 oneleaveshop序列跟蹤結(jié)果Fig.2 Tracking result on oneleaveshop sequence
圖3給出了初始幀手動(dòng)選取的目標(biāo)模板的R、G、B直方圖和H、S、V 直方圖,圖4給出了第175幀中兩種算法跟蹤結(jié)果窗口的R、G、B 直方圖和H、S、V 直方圖??梢钥闯?,當(dāng)目標(biāo)姿態(tài)發(fā)生變化時(shí),基于RGB顏色空間的傳統(tǒng)Mean Shift跟蹤器有明顯的缺陷,雖然第1幀與第175幀跟蹤窗RGB 顏色直方圖分布Bhattacharyya系數(shù)較大,而目標(biāo)幾乎完全丟失,導(dǎo)致跟蹤失敗。而HSV 顏色空間在整個(gè)彩色序列跟蹤過程中具有良好的抗干擾能力。
圖3 初始幀目標(biāo)模板直方圖Fig.3 RGB and HSV histogram of target model in frame No.1
圖4 第175幀兩種算法跟蹤窗口直方圖Fig.4 Histogram of track window by two trackers in frame No.175
圖5為Enter Exit序列跟蹤效果圖,圖像分辨率及幀頻同oneleaveshop 序列,與其相比,整個(gè)序列中目標(biāo)姿態(tài)及光照都發(fā)生了更加劇烈的變化,除了傳統(tǒng)Mean Shift,還增加了粒子濾波和文獻(xiàn)[10]算法進(jìn)行對(duì)比跟蹤實(shí)驗(yàn),主要考察算法的跟蹤精度及耗時(shí)兩個(gè)方面。
圖中紅色矩形代表本文算法,藍(lán)色矩形代表文獻(xiàn)[10]算法,綠色矩形代表粒子濾波算法(“+”字代表跟蹤的粒子),青色代表傳統(tǒng)Mean Shift算法。同樣,第1 幀由手動(dòng)方式確定,4 個(gè)跟蹤窗重合。第40 幀時(shí),光照及目標(biāo)姿態(tài)發(fā)生微小變化,Mean Shift跟蹤定位誤差最大,導(dǎo)致后續(xù)跟蹤失敗。第40幀,第89幀時(shí),粒子濾波還能表現(xiàn)出良好的跟蹤能力,定位誤差較Mean Shift小。但當(dāng)?shù)?57幀時(shí),目標(biāo)姿態(tài)由正面轉(zhuǎn)為側(cè)面,背景及光照也發(fā)生較大變化,粒子濾波跟蹤失敗??梢钥闯?,由于背景的變化及目標(biāo)姿態(tài)變化,待跟蹤目標(biāo)模型發(fā)生巨大變化,因此,模型更新是有效跟蹤的必要手段。文獻(xiàn)[10]及本文算法均采用從多幀圖像建立模型及模型自適應(yīng)更新算法,因此,在整個(gè)圖像跟蹤序列中都能夠精確跟蹤目標(biāo),尤其在第232幀以后。
圖5 4種跟蹤算法對(duì)EnterExit序列跟蹤結(jié)果Fig.5 Tracking result on EnterExit sequence by four trackers
圖6,圖7 分別給出了x,y 方向定位偏差。Proposed Tracker代表本文算法;Tracker in[10]代表文獻(xiàn)[10]算法;Standard Mean Shift代表傳統(tǒng)Mean Shift算法;Particle Filter代表粒子濾波算法。
圖6 x 方向偏差Fig.6 Deviation of axis
定位偏差計(jì)算公式[7]如式(28)所示:
式中:(xi,yi)為各種算法計(jì)算所得目標(biāo)矩形中心位置,(xc,yc)為通過人工逐幀獲取的目標(biāo)中心位置。Errori的平方即為圖6、圖7 對(duì)應(yīng)曲線各點(diǎn)的平方和。
表1給出了4種跟蹤算法根據(jù)式(28)計(jì)算的整個(gè)圖像序列定位誤差的均值和方差,單位為像素。FR0.5[10]代表跟蹤窗中心偏離實(shí)際目標(biāo)中心大于0.5像素的幀數(shù)占序列總幀數(shù)的比例,F(xiàn)R1代表閾值為1 像素時(shí)的跟蹤失敗比例。粒子濾波跟蹤器采用100個(gè)粒子,調(diào)整參數(shù),取10次跟蹤的平均值??梢钥闯?,本文算法跟蹤精度最高,跟蹤失敗率最低。
表1 4種跟蹤算法對(duì)EnterExit序列跟蹤誤差結(jié)果Tab.1 Tracking error of four trackers against the ground truth on EnterExit sequence
表2給出了各自的平均處理時(shí)間。粒子濾波收斂速度最慢,消耗時(shí)間最長(zhǎng)。而本文算法和文獻(xiàn)[10]雖然增加了在線學(xué)習(xí),但部分計(jì)算因子可以離線進(jìn)行,其計(jì)算復(fù)雜度與Mean Shift相當(dāng),與支持向量數(shù)無關(guān)。本文算法對(duì)分辨率為384×288的視頻序列,最快處理速度能達(dá)到40 f/s。
表2 4種跟蹤算法對(duì)EnterExit序列平均處理時(shí)間Tab.2 Average computing time of four trackers on EnterExit sequence
針對(duì)傳統(tǒng)Mean Shift算法模板從單一圖像建立,且很難更新問題,提出了基于HSV 空間的在線SVM 的Mean Shift跟蹤算法,將RGB顏色空間轉(zhuǎn)換到HSV 空間,建立新的統(tǒng)一核函數(shù)模型,引入增量學(xué)習(xí)支持向量機(jī)算法,對(duì)違反KKT條件的樣本進(jìn)行學(xué)習(xí),減少計(jì)算量,實(shí)現(xiàn)目標(biāo)模型的在線更新。實(shí)驗(yàn)表明:本文算法對(duì)目標(biāo)姿態(tài)、光照及背景發(fā)生較大變化時(shí),跟蹤有效且耗時(shí)少。當(dāng)像素大小為384pixel×288pixel(目標(biāo)尺寸為20pixel×80pixel)時(shí),最快處理速度達(dá)40f/s,且跟蹤精度(FR0.5)比傳統(tǒng)Mean Shift提高了32.1%,平均定位誤差為4.1pixel,基本滿足了某些穩(wěn)健實(shí)時(shí)跟蹤系統(tǒng)的要求。
[1] Comaniciu D,Ramesh V.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,24(5):564-577.
[2] ISARD M,BLAKE A.Condensation-conditional density propagation for visual tracking[J].International Journal of Computer Vision,1998,29(1):5-28.
[3] 杜超,劉偉寧,劉戀.一種基于卡爾曼濾波及粒子濾波的目標(biāo)跟蹤算法[J].液晶與顯示,2011,26(3):384-389.Du C,Liu W N,Liu L.Target tracking algorithm based on Kalman filter and particle filter[J].Chinese Journal of Liquid Crystals and Displays,2011,26(3):384-389.(in Chinese)
[4] 王國(guó)良,劉金國(guó).基于粒子濾波的多自由度運(yùn)動(dòng)目標(biāo)跟蹤[J].光學(xué) 精密工程,2011,19(4):864-869.Wang G L,Liu J G.Moving object tracking with multi-degree-of-freedom based on particle filters[J].Optics and Precision Engineering,2011,19(4):864-869.(in Chinese)
[5] 陳愛華,孟勃,朱明,等.多模式融合的目標(biāo)跟蹤算法[J].光學(xué) 精密工程,2009,17(1):185-190.Chen A H,Meng B,Zhu M,et al.Multi-pattern fusion algorithm for target tracking[J].Optics and Precision Engineering,2009,17(1):185-190.(in Chinese)
[6] Comaniciu D,Meer P.Mean shift:A Robust application toward feature space analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.
[7] 王田,劉偉寧,韓廣良,等.基于改進(jìn)Mean Shift的目標(biāo)跟蹤算法[J].液晶與顯示,2012,27(3):396-400.Wang T,Liu W N,Han G L,et al.Target tracking algorithm based on improved Meanshift[J].Chinese Journal of Liquid Crystals and Displays,2012,27(3):396-400.(in Chinese)
[8] 劉揚(yáng),張?jiān)品?,董月?復(fù)雜背景下抗遮擋的運(yùn)動(dòng)目標(biāo)跟蹤算法[J].液晶與顯示,2010,25(6):890-895.Liu Y,Zhang Y F,Dong Y F.Anti-occlusion algorithm of tracking moving object in clutter background[J].Chinese Journal of Liquid Crystals and Displays,2010,25(6):890-895.(in Chinese)
[9] Jung U C,SEUNG H J,XU.FPGA-based real-time visual tracking system using adaptive color histograms[C]//Proceedings of the 2007th International Conference on Robotics and Biomimetics,Sanya,P.R.China:ICRB,2007:172-177.
[10] Sheng S H,Kim J,Wang H Z.Generalized kernel-based visual tracking[J].IEEE Transactions on Circuits and Systems for Video Thechnology,2010,20(1):119-130.
[11] AVIDAN S.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(2):261-271.
[12] Collins R T,Liu Y X,Leordeanu M.Online selection of discriminative tracking features[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1631-1643.
[13] Syend N A,Liu H,Sung K.Incremental learning with support vector machines[C]//Proceedings of the Workshop on Support Vector Machines at the International Joint Conference on Artificial Intelligence,Stockholm,Sweden:IJCAI,1999:2165-2176.
[14] 李國(guó)正,王猛,曾華軍.支持向量機(jī)導(dǎo)論[M].北京:電子工業(yè)出版社,2004.Li G Z,Wang M,Zeng H J.An Introduction to Support Vector Machines and Other Kernel-based Learning Methods[M].Beijing:Publishing House of Electronics Industry,2004.(in Chinese)
[15] Perez P,Hue C,Vermaak J,et al.Color-Based Probabilistic tracking.[C]∥Lecture Notes in Computer Science,Copenhagan,Denmark:Eccv,2002:661-675.
[16] The school of Information,University of Edinburgh.CAVIAR Test case Scenarios[DB/OL].[2011-05-12]//http:groups.inf.ed.ac.uk/vision/CAVIAR/CAVIARDATA1/.