楊春德 劉京 瞿中
摘 要:針對(duì)核相關(guān)濾波器(KCF)跟蹤算法在面對(duì)尺度變化時(shí)產(chǎn)生的目標(biāo)漂移問(wèn)題,提出一種分離窗口快速尺度自適應(yīng)目標(biāo)跟蹤算法——FSACF。首先,通過(guò)直接對(duì)原始幀圖像進(jìn)行特征提取得到基于顯著性顏色特征的全局梯度組合特征圖,以減小后續(xù)的尺度計(jì)算對(duì)性能的影響;其次,對(duì)全局特征圖采用分離窗口法,自適應(yīng)地選取尺度大小并計(jì)算對(duì)應(yīng)的最大響應(yīng)值;最后,采用定義的置信度函數(shù)自適應(yīng)地更新迭代模板函數(shù),提高模型的魯棒性。通過(guò)帶有不同干擾屬性的視頻集上進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn)FSACF算法與KCF算法相比,在精度上提升7.4個(gè)百分點(diǎn),成功率提高12.8個(gè)百分點(diǎn);與未采用全局特征和分離窗口的算法對(duì)比,處理速度上提升1.5倍。實(shí)驗(yàn)結(jié)果表明,F(xiàn)SACF算法在尺度變化發(fā)生時(shí)能有效避免目標(biāo)漂移的產(chǎn)生,同時(shí)具有一定的效率,并在精度與成功率上均優(yōu)于對(duì)比算法。
關(guān)鍵詞:目標(biāo)跟蹤;核相關(guān)濾波器;尺度自適應(yīng);全局特征;置信度函數(shù)
中圖分類號(hào):TP391.41
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-9081(2019)04-1145-05
Abstract: In order to solve the problem of object drift caused by Kernelized Correlation Filter (KCF) tracking algorithm when scale changes, a Fast Scale Adaptive tracking of Correlation Filter (FSACF) was proposed. Firstly, a global gradient combination feature map based on salient color features was obtained by directly extracting features for the original frame image, reducing the effect of subsequent scale calculation on the performance. Secondly, the method of separating window was performed on the global feature map, adaptively selecting the scale and calculating the corresponding maximum response value. Finally, a defined confidence function was used to adaptively update the iterative template function, improving robustness of the model. Experimental result on video sets with different interference attributes show that compared with KCF algorithm, the accuracy of the FSACF algorithm by was improved 7.4 percentage points, and the success rate was increased by 12.8 percentage points; compared with the algorithm without global feature and separating window, the Frames Per Second was improved by 1.5 times. The experimental results show that the FSACF algorithm avoids the object drift when facing scale change with certain efficiency, and is superior to the comparison algorithms in accuracy and success rate.
Key words: object tracking; Kernelized Correlation Filter (KCF); scale adaptive; global feature; confidence function
0?引言
目標(biāo)跟蹤是計(jì)算機(jī)視覺中最基本的問(wèn)題之一,在視頻監(jiān)控[1]、行為分析等方面有著廣泛的應(yīng)用。盡管目標(biāo)跟蹤已經(jīng)取得了較大的進(jìn)展,但仍受眾多因素的影響,如尺度變化、遮擋[2]等,所以目標(biāo)跟蹤仍是一個(gè)具有挑戰(zhàn)性的課題。
Bolme等[3]提出的最小平方誤差輸出和(Minimum Output Sum of Squared Error, MOSSE)算法,將相關(guān)濾波引入跟蹤領(lǐng)域,使跟蹤速度得到提高。而后Henriques等[4]基于MOSSE的框架加入密集采樣的思想提出核循環(huán)結(jié)構(gòu)跟蹤(Circulant Structure with Kernel, CSK)算法,利用循環(huán)矩陣的性質(zhì)加速了求解過(guò)程。隨后,Henriques等[5]
又對(duì)CSK算法加入多通道特征的方法并推導(dǎo)出非線性解,提出非線性核相關(guān)濾波器(Kernelized Correlation Filter, KCF)使多特征融合成為可能。Li等[6]針對(duì)KCF算法無(wú)法處理尺度變化的問(wèn)題,提出尺度與位移同時(shí)計(jì)算最優(yōu)的多特征尺度自適應(yīng)(Scale Adaptive Multiple Feature, SAMF)跟蹤算法,解決由于尺度變化而導(dǎo)致的目標(biāo)信息丟失問(wèn)題,但無(wú)法滿足實(shí)時(shí)性需求,且在面對(duì)遮擋時(shí)易產(chǎn)生模型污染。
Kalal等[7]提出學(xué)習(xí)檢測(cè)跟蹤(Tracking-Learning-Detection, TLD)算法,將跟蹤和檢測(cè)相結(jié)合,引入在線學(xué)習(xí)機(jī)制,魯棒性強(qiáng),具有很強(qiáng)的學(xué)習(xí)恢復(fù)能力,但在面對(duì)光照變化等因素影響時(shí)易產(chǎn)生目標(biāo)漂移,并且效率不高。
本文針對(duì)KCF算法在尺度變化時(shí)易產(chǎn)生漂移的問(wèn)題,提出一種分離窗口尺度自適應(yīng)跟蹤算法——FSACF(Fast Scale Adaptive tracking of Correlation Filter)。首先對(duì)每幀原始圖像進(jìn)行全局特征提取,基于顯著性顏色特征和灰度特征提取對(duì)應(yīng)的梯度特征;然后采用提出的尺度自適應(yīng)算法在全局特征圖上進(jìn)行計(jì)算,以分離窗口的方式選擇合適的尺度進(jìn)行響應(yīng)值計(jì)算并得到模板函數(shù);最后修改了更新策略,提出一組置信度函數(shù)的定義,采用置信度函數(shù)對(duì)模板函數(shù)學(xué)習(xí)率進(jìn)行自適應(yīng)的調(diào)整更新,使得模型更加穩(wěn)定。
1?相關(guān)濾波跟蹤算法
相關(guān)濾波器跟蹤算法的主要框架包括:首先濾波器采用嶺回歸模型對(duì)第一幀選定的目標(biāo)進(jìn)行訓(xùn)練;然后將模型與下一幀的圖像進(jìn)行快速檢測(cè),通過(guò)相關(guān)運(yùn)算得到響應(yīng)矩陣來(lái)確定當(dāng)前幀圖像中目標(biāo)的中心位置;最后以新的位置信息對(duì)圖像的目標(biāo)重采樣進(jìn)行模型更新迭代,重復(fù)以上過(guò)程實(shí)現(xiàn)跟蹤。
1.1?嶺回歸模型建立
假定訓(xùn)練集的圖像樣本表示為z(mi,ni),則訓(xùn)練的目標(biāo)就是找到一個(gè)函數(shù)f(z)=pTz,使得誤差函數(shù)minp(f(z)-Y)2+λ‖p‖2最小。其中:Y為回歸目標(biāo);λ為正則化參數(shù),防止過(guò)擬合。
為了讓檢測(cè)器有更好的表現(xiàn),Henriques等[5]利用循環(huán)矩陣的性質(zhì),
其中:zx表示在傅里葉域中z自身的核相關(guān)性,是標(biāo)準(zhǔn)正太分布的傅里葉變換。這樣對(duì)p的求解就轉(zhuǎn)變到對(duì)偶空間中對(duì)α的求解。
1.2?快速檢測(cè)運(yùn)算
循環(huán)矩陣的性質(zhì)同樣被用到了檢測(cè)過(guò)程中。對(duì)下一幀歷史位置提取的圖像塊z進(jìn)行循環(huán)采樣,可以由式(3)得到頻域中的響應(yīng)函數(shù):
得到響應(yīng)值矩陣后進(jìn)行傅里葉逆變換即可得到時(shí)域中響應(yīng)值矩陣,其最大值的位置就是對(duì)應(yīng)目標(biāo)的中心位置。
2?快速尺度自適應(yīng)目標(biāo)跟蹤算法
在目標(biāo)確定后,本文算法(FSACF)對(duì)目標(biāo)原始圖提取顯著顏色梯度全局特征圖,以避免多次重復(fù)提取特征,并提出一種特征組合方式;然后在全局特征圖上采用分離窗口快速尺度估計(jì)算法得到響應(yīng)矩陣,進(jìn)一步加速尺度信息確定的計(jì)算;最后針對(duì)響應(yīng)矩陣的數(shù)值進(jìn)行分析,并代入到提出的置信度函數(shù)中,實(shí)現(xiàn)對(duì)模板函數(shù)自適應(yīng)更新。
2.1?全局特征圖
在相關(guān)方法中,傅里葉變換的計(jì)算次數(shù)與特征維數(shù)呈線性關(guān)系,為提高計(jì)算的速度,本文提出在原始圖的基礎(chǔ)上只進(jìn)行一次特征提取得到全局特征圖,避免多次提取的重復(fù)操作。適當(dāng)?shù)奶卣鹘M合也可以顯著地提高檢測(cè)性能,而梯度和顏色特征的聯(lián)合已被證實(shí)有著很強(qiáng)的互補(bǔ)性,但如何進(jìn)行合適的組合仍是一個(gè)有待解決的問(wèn)題。
常規(guī)的方向梯度直方圖(Histogram of Oriented Gradients, HOG)特征[8]和顏色名稱(Color Name, CN)特征[9]的融合是直接相連的,而在不同的顏色空間中,目標(biāo)的梯度特征是不同的,因此從每個(gè)顏色空間中提取梯度特征是一種更好的策略。為了平衡性能,本文提出一種基于顯著性顏色特征提取梯度特征的方法,其過(guò)程如下:首先將RGB圖像轉(zhuǎn)換為11維顏色空間,接著對(duì)其降維,提取顯著性顏色特征圖;然后在顯著性顏色特征圖的每一個(gè)通道和灰度特征圖上提取HOG特征;最后將得到的梯度特征降維,連接成一個(gè)共54通道的三維矩陣為全局特征圖,如圖1所示,后續(xù)尺度估計(jì)算法直接在全局特征圖上提取對(duì)應(yīng)的目標(biāo)進(jìn)行計(jì)算。
2.2?快速自適應(yīng)尺度
如圖2所示:圖2(a)為初始化狀態(tài),圖2(b)~(d)為后續(xù)視頻序列根據(jù)分離規(guī)則分離后得到的對(duì)應(yīng)窗口位置,其中黑點(diǎn)處為當(dāng)前最大響應(yīng)值的位置。
當(dāng)圖2(a)中最大響應(yīng)處于上半部分時(shí),圖2(b)中w1~wmid-1窗口上移;
當(dāng)圖2(b)中最大響應(yīng)處于上半部分時(shí),圖2(c)中w1~wmid-1窗口上移;
當(dāng)圖2(c)中最大響應(yīng)處于下半部分時(shí),圖2(d)中w1~wmid-1窗口重新初始化,wmid-1~wm窗口下移。
分離規(guī)則如表1所示。表1中:cur表示當(dāng)前幀最大響應(yīng)所在的窗口位置;move-1和move+1分別表示對(duì)應(yīng)窗口上移/下移一個(gè)單位;stay表示維持當(dāng)前位置;initialise表示重新初始化到原始位置。
采用分離窗口法可以根據(jù)上一幀得到的尺度信息,快速尋找到最適合下一幀目標(biāo)特征圖feature_map的最可能的m個(gè)尺度信息。如圖2(b)所示,當(dāng)上一幀cur指向hmid-1時(shí),下一幀繼續(xù)縮小或保持的概率更大,所以縮小窗口上移偏向選擇縮放比例更小的尺度;而由實(shí)驗(yàn)分析可得,視頻中尺度是漸變的,若此時(shí)放大部分的上一尺度不是保持部分則將放大部分初始化至原始位置,保證目標(biāo)的下一幀目標(biāo)若為放大時(shí)有更適合的尺度與之匹配。
按對(duì)應(yīng)的尺度hisH為大小在feature_map上截取對(duì)應(yīng)尺度特征圖,將得到包含不同比例的正負(fù)樣本信息的特征圖,采用雙線性插值法還原到初始尺度,然后將其映射到核空間,代入到式(5),則可以得到目標(biāo)第t與t-1幀對(duì)應(yīng)的高斯核函數(shù);代入到式(3),則可得到最大響應(yīng)值,即可確認(rèn)位置信息和尺度信息。
2.3?自適應(yīng)更新策略
由于視頻序列的連續(xù)性,幀間的目標(biāo)信息重復(fù)性大,大多數(shù)跟蹤算法采用的是持續(xù)地對(duì)模板函數(shù)式(2)進(jìn)行恒定更新迭代,導(dǎo)致跟蹤過(guò)程中不可避免的存在模型污染、目標(biāo)漂移等問(wèn)題。
經(jīng)研究發(fā)現(xiàn)持續(xù)地對(duì)模板函數(shù)進(jìn)行更新,在遮擋等情況發(fā)生的情況下,不適合的更新容易導(dǎo)致模型污染。針對(duì)這個(gè)問(wèn)題,本文提出了一個(gè)置信度函數(shù)Φ(·),如式(6)所示:
若發(fā)生遮擋,為避免采集到過(guò)多的錯(cuò)誤信息污染模型,自適應(yīng)地調(diào)整學(xué)習(xí)率。
當(dāng)響應(yīng)值小于門限μ時(shí),采用αmax3函數(shù)降低學(xué)習(xí)率,降低錯(cuò)誤采樣對(duì)模型造成的影響;當(dāng)響應(yīng)值大于門限μ時(shí),采用(αmax-μ)1/4函數(shù),適當(dāng)?shù)靥岣吒聦W(xué)習(xí)率,維護(hù)模型的穩(wěn)定性。
設(shè)new和pre分別表示當(dāng)前幀和前一幀的模板信息,ξ表示模板函數(shù)的學(xué)習(xí)率,xnew和xpre分別表示當(dāng)前幀和前一幀的目標(biāo)信息,η表示目標(biāo)特征的學(xué)習(xí)率,hc表示當(dāng)前幀的尺度信息。根據(jù)提出的置信度函數(shù)對(duì)模板更新函數(shù)進(jìn)行改進(jìn),可以得到學(xué)習(xí)率自適應(yīng)更新函數(shù)如式(7)所示:
對(duì)x′目標(biāo)信息保持持續(xù)更新的策略。對(duì)于模板函數(shù)加入自適應(yīng)學(xué)習(xí)率,即控制模板函數(shù)在可能發(fā)生模型污染的情況下,對(duì)模板函數(shù)以自適應(yīng)學(xué)習(xí)率進(jìn)行選擇性更新,避免模型污染。對(duì)于尺度模板sH逐幀進(jìn)行更新,以t-1幀時(shí)的尺度信息作為第t幀的尺度模板。
2.4?算法流程
FSACF算法的具體流程為:
首先輸入第t-1幀的目標(biāo)中心位置和目標(biāo)尺度信息,訓(xùn)練檢測(cè)器,根據(jù)第t-1幀中的目標(biāo)中心位置,提取當(dāng)前第t幀的全局特征圖;然后在全局特征圖上執(zhí)行快速自適應(yīng)尺度估計(jì)算法進(jìn)行尺度選擇,將選中的尺度池S中對(duì)應(yīng)的尺度在特征圖中提取出目標(biāo),代入到響應(yīng)值函數(shù)進(jìn)行計(jì)算;最后在得到的m組響應(yīng)矩陣中取最大值進(jìn)行對(duì)比,找到全局最大值的位置,即可確定第t幀的目標(biāo)中心位置和尺度信息,信息確認(rèn)后執(zhí)行自適應(yīng)更新策略對(duì)模板函數(shù)和目標(biāo)信息進(jìn)行更新。
本文算法流程如圖3所示。
具體算法步驟如下:
輸入?第t-1幀目標(biāo)中心位置和目標(biāo)尺度信息。
輸出?第t幀目標(biāo)的目標(biāo)中心位置和目標(biāo)尺度信息。
步驟1?提取第t幀的基于顯著性顏色特征的梯度特征得到全局特征圖。
步驟2?采用分離窗口確定的尺度信息和第t-1幀的中心位置信息,對(duì)全局特征圖使用式(5)進(jìn)行目標(biāo)特征圖提取,并通過(guò)核函數(shù)式(6)進(jìn)行融合得到樣本kxx′。
步驟3?將kxx′依次與模板函數(shù)α進(jìn)行相關(guān)運(yùn)算式(3)得到對(duì)應(yīng)響應(yīng)圖,選擇擁有最大響應(yīng)值的響應(yīng)圖,即可確認(rèn)第t幀中目標(biāo)的中心位置與目標(biāo)尺度信息。
步驟4?對(duì)第t幀中的更新模板系數(shù)、基樣本x和尺度模板sH采用式(7)進(jìn)行更新。
重復(fù)迭代以上步驟,以實(shí)現(xiàn)跟蹤。
3?實(shí)驗(yàn)與結(jié)果分析
3.1?實(shí)驗(yàn)參數(shù)與評(píng)價(jià)標(biāo)準(zhǔn)
實(shí)驗(yàn)平臺(tái)為Windows 10操作系統(tǒng),處理器Core i5-6200U,8GB內(nèi)存,運(yùn)行平臺(tái)為Matlab。實(shí)驗(yàn)測(cè)試視頻數(shù)據(jù)為OTB-50[10],選取其中40組視頻,涉及到灰度圖像和彩色圖像,同時(shí)包含尺度變化、遮擋等11個(gè)屬性,每個(gè)視頻序列包含多個(gè)屬性。為方便與KCF算法進(jìn)行對(duì)比,實(shí)驗(yàn)中參數(shù)與KCF算法保持一致。本文為保證精度窗口規(guī)模m=5;尺度池S規(guī)模t=9,間隔為0.015;學(xué)習(xí)率ξ=0.01;超參數(shù)門限μ=0.25為實(shí)驗(yàn)經(jīng)驗(yàn)值。選取了CSK、SAMF等5種算法和本文算法的結(jié)果進(jìn)行定性定量的分析。
所有的實(shí)驗(yàn)均采用四個(gè)評(píng)價(jià)指標(biāo):1)精度曲線。精度曲線表示某一距離閾值的正確跟蹤幀的百分比,如果預(yù)測(cè)的目標(biāo)中心在距離標(biāo)準(zhǔn)值的一定閾值內(nèi),則被認(rèn)為正確跟蹤,較高的低閾值精度表示跟蹤器更精確,在此選擇的閾值為20個(gè)像素。2)平均中心位置誤差(Centre Location Error, CLE)。中心位置誤差是跟蹤算法計(jì)算的位置中心與數(shù)據(jù)集的標(biāo)準(zhǔn)值之間的差異,誤差越小效果越優(yōu)。3)成功率曲線。成功率是以目標(biāo)邊界框的重疊率O=|Bt∩Bg|/|Bt∪Bg|進(jìn)行計(jì)算的,其中∩和∪分別表示兩個(gè)區(qū)域的交集和并集,|·|指的是區(qū)域內(nèi)的像素點(diǎn)個(gè)數(shù),Bt為跟蹤的邊界框,Bg是標(biāo)準(zhǔn)邊界框。重疊率越高越準(zhǔn)確,這里選擇重疊率的閾值為0.5。4)每秒處理的幀數(shù)(Frames Per Second, FPS)。FPS的數(shù)值越大說(shuō)明處理速度越快。
3.2?實(shí)驗(yàn)結(jié)果分析
為了評(píng)估本文提出的FSACF算法的有效性,選取OTB視頻集中40組視頻,平均所有屬性下的跟蹤結(jié)果,繪制出精度曲線和成功率曲線如圖4所示,對(duì)比算法包括SAMF、KCF、TLD、核結(jié)構(gòu)化輸出跟蹤算法Struck(structured output tracking with kernels)[11]和CSK算法。
從圖4可看出:本文提出的跟蹤器在20個(gè)像素的位置誤差上精度為82.7%,在50%的重疊率上的成功率表現(xiàn)為76.2%,在精確性和魯棒性方面都有很好的應(yīng)用前景。本文FSACF算法與SAMF算法相比,在精度上高出1.4個(gè)百分點(diǎn),成功率高出3.9個(gè)百分點(diǎn);與KCF算法相比,在精度上提高7.4個(gè)百分點(diǎn),成功率提高12.8個(gè)百分點(diǎn);與Struck算法相比,在精度上高出12.4個(gè)百分點(diǎn),成功率高出18個(gè)百分點(diǎn),在精度與成功率上均優(yōu)于其他對(duì)比算法。由此可以看出,顯著性顏色梯度特征能在一定程度上抑制背景的干擾,經(jīng)改進(jìn)后算法對(duì)目標(biāo)信息的捕捉能力有一定提升。
為了驗(yàn)證本文提出的基于顯著性顏色特征的全局梯度特征法和分離窗口法對(duì)尺度計(jì)算效率的提升,將FSACF算法與尺度自適應(yīng)跟蹤(Scale Adaptive Correlation Filter, SACF)算法即無(wú)分離窗口和全局特征法的FSACF算法進(jìn)行比較。本文提出的FSACF算法在處理速度方面如表2所示(這里只選擇了部分的視頻序列進(jìn)行列舉),平均比SACF算法提升1.5倍。
對(duì)超參數(shù)μ進(jìn)行對(duì)比分析實(shí)驗(yàn)如圖5所示,其中μ分別取值0~0.7(以0.05為間隔)。以不同μ值依次對(duì)FSACF算法進(jìn)行測(cè)試,得到的精度取平均值,可以從實(shí)驗(yàn)結(jié)果中看出在μ=0.25時(shí)可以得到最高成功率。當(dāng)給置信度函數(shù)選取適當(dāng)?shù)摩讨?,模型在一定程度上可以避免異常值?duì)模型造成的污染,從而緩解因遮擋等因素而引起的目標(biāo)漂移問(wèn)題。
選取多組視頻序列進(jìn)行定性分析,各算法的跟蹤結(jié)果如圖6所示。實(shí)驗(yàn)結(jié)果顯示,現(xiàn)有的一些跟蹤算法僅能在自然場(chǎng)景中小部分干擾因素下正常跟蹤,當(dāng)有光照、尺度等因素影響時(shí)效果反差大,易產(chǎn)生目標(biāo)漂移等問(wèn)題。
而FSACF算法采用顏色梯度特征能很好地克服光照變化的影響, 同時(shí)采用了分離窗口法有效地克服了尺度變化對(duì)跟蹤造成的影響。
當(dāng)尺度發(fā)生較大變化時(shí)FSACF算法在三組視頻中均能準(zhǔn)確地框定出目標(biāo),其他算法則易產(chǎn)生不同程度的目標(biāo)漂移。所以FSACF算法具有良好的魯棒性,特別是在尺度變化方面表現(xiàn)優(yōu)異。
4?結(jié)語(yǔ)
針對(duì)KCF算法在跟蹤過(guò)程中面對(duì)尺度變化和遮擋發(fā)生時(shí)易產(chǎn)生目標(biāo)漂移和模型污染的問(wèn)題,對(duì)其進(jìn)行改進(jìn),提出FSACF算法。本文利用顏色空間和梯度特征的互補(bǔ)性,提出的全局組合特征和分離窗口法,不但能處理尺度的問(wèn)題,同時(shí)保證了實(shí)時(shí)性的需求。并驗(yàn)證了置信度函數(shù)可以在一定程度上提高模型更新策略的魯棒性,避免模型污染。但綜合所有干擾因素的情況,整體跟蹤精度與成功率沒有大幅度的提升。在接下來(lái)的工作中,如何在保證效率的同時(shí)對(duì)精度與成功率進(jìn)行進(jìn)一步的提升是下一步的研究重點(diǎn)。
參考文獻(xiàn)(References)
[1] ZHENG Y, LI S E, WANG J, et al. Stability and scalability of homogeneous vehicular platoon: study on the influence of information flow topologies [J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(1): 14-26.
[2] 勾承甫, 陳斌, 趙雪專, 等. 基于隨機(jī)一致性采樣估計(jì)的目標(biāo)跟蹤算法 [J]. 計(jì)算機(jī)應(yīng)用, 2017, 36(9): 2566-2569. (GOU C F, CHEN B, ZHAO X Z, et al. Object tracking algorithm based on random sampling consensus estimation [J]. Journal of Computer Applications, 2017, 36(9): 2566-2569.)
[3] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual object tracking using adaptive correlation filters [C]// CVPR 2010: Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2010: 2544-2550.
[4] HENRIQUES J F, RUI C, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels [C]// ECCV 2012: Proceedings of the 12th European Conference on Computer Vision, LNCS 7575. Berlin: Springer, 2012: 702-715.
[5] HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.
[6] LI Y, ZHU J. A scale adaptive kernel correlation filter tracker with feature integration [C]// ECCV 2014: Proceedings of the 2014 European Conference on Computer Vision, LNCS 8926. Berlin: Springer, 2014: 254-265.
[7] KALAL Z, MATAS J. Tracking learning detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.
[8] FELZENSZWALB P, GIRSHICK R, MCALLESTER D, et al. Object detection with discriminatively trained part-based models [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.
[9] DANELLJAN M, KHAN F S, FELSBERG M, et al. Adaptive color attributes for real-time visual tracking [C]// CVPR 2014: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2014: 1090-1097.
[10] WU Y, LIM J, YANG M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.
[11] HARE S, GOLODETZ S, SAFFARI A. Struck: structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10): 2096-2109.