国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

尺度自適應(yīng)的加權(quán)壓縮跟蹤算法

2018-04-20 00:53:53李曉行陳金廣馬麗麗王明明
西安工程大學(xué)學(xué)報 2018年1期
關(guān)鍵詞:分類器濾波器尺度

李曉行,陳金廣,馬麗麗, 王明明,王 偉

(西安工程大學(xué) 計算機(jī)科學(xué)學(xué)院, 陜西 西安 710048)

0 引 言

目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域中的主要研究內(nèi)容之一,廣泛應(yīng)用于運(yùn)動識別、視頻監(jiān)控、視頻索引、人機(jī)交互等領(lǐng)域中[1].由于目標(biāo)跟蹤面臨著光照變化、運(yùn)動模糊、目標(biāo)遮擋等挑戰(zhàn)因素,因此,其研究仍是重點(diǎn)與難點(diǎn).目標(biāo)跟蹤算法一般分為生成式模型和判別式模型兩大類.

基于生成式模型的目標(biāo)跟蹤算法一般是利用學(xué)習(xí)得到的目標(biāo)模型找到具有最小重建錯誤的圖像塊,該圖像塊位置即為目標(biāo)位置.具有代表性的是Comaniciu等提出的Mean Shift算法[2],該算法利用概率密度梯度估計,通過迭代尋優(yōu)以找到目標(biāo)位置,但其對顏色變化較為敏感.Cai等對Mean Shift算法進(jìn)行了改進(jìn)[3],將空間直方圖和Contourlet直方圖進(jìn)行加權(quán)求和,該方法在目標(biāo)遮擋、旋轉(zhuǎn)、尺度變換等情況下具有較好的魯棒性.針對Mean Shift算法無法進(jìn)行尺度自適應(yīng)更新的問題,Bradski提出了CamShift算法[4],該算法能夠自適應(yīng)地調(diào)整目標(biāo)跟蹤區(qū)域的大小,具有較好的跟蹤效果.IVT算法[5]利用增量主成分分析子空間對目標(biāo)模型進(jìn)行描述,能夠在線估計目標(biāo)的外觀,從而實(shí)現(xiàn)目標(biāo)跟蹤.Mei等[6]提出一種粒子框架下的L1跟蹤算法,將跟蹤問題看作稀疏逼近問題,該算法在遮擋情況下具有較好的跟蹤效果,但計算量較大.

基于判別式模型的目標(biāo)跟蹤算法將跟蹤問題看作二元分類問題,將目標(biāo)和背景區(qū)分開來,從而得到目標(biāo)的位置.Grabner等提出一種在線boosting方法來選擇特征進(jìn)行跟蹤[7],僅使用一個正樣本和少量負(fù)樣本更新分類器,易導(dǎo)致跟蹤漂移.Babenko等提出了一種多示例學(xué)習(xí)跟蹤算法[8],該算法將訓(xùn)練樣本以樣本包的形式表示,學(xué)習(xí)判別模型并訓(xùn)練分類器分離目標(biāo)與背景,雖然該算法跟蹤效果較好,但其易受遮擋及誤差的影響.Wang等提出了一種基于超像素的分類模型[9],可以有效解決遮擋問題.Hare等提出使用在線結(jié)構(gòu)化的輸出支撐向量機(jī)來進(jìn)行跟蹤[10],可以有效地減輕錯誤標(biāo)簽樣本的影響.Zhang等提出了壓縮跟蹤(CT,Compressive Tracking)算法[11],該算法利用樣本的壓縮特征來進(jìn)行分類處理,提高了算法的運(yùn)行效率,但該算法易受遮擋影響且尺度不能自適應(yīng)更新.快速壓縮跟蹤(FCT,Fast Compressive Tracking)算法利用二次定位方法提升了CT算法的運(yùn)行效率[12],但該算法仍易受遮擋影響且尺度也不能自適應(yīng)更新.一些學(xué)者針對CT算法跟蹤準(zhǔn)確性不高的問題提出了解決方法[13-16],但這些方法未能實(shí)現(xiàn)尺度的自適應(yīng)更新.

本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將判別相關(guān)濾波器和尺度金字塔[17]運(yùn)用于CT算法中,以實(shí)現(xiàn)尺度的自適應(yīng)更新;利用正負(fù)樣本的巴氏系數(shù)對樸素貝葉斯分類器進(jìn)行加權(quán),使得分類結(jié)果更為準(zhǔn)確.

1 壓縮跟蹤算法

壓縮跟蹤算法是基于壓縮感知理論的一種快速魯棒跟蹤算法.壓縮感知理論指出,利用一個滿足壓縮等距性(RIP,Restricted isometry property)條件的隨機(jī)矩陣對稀疏向量進(jìn)行隨機(jī)采樣,采樣后的低維向量幾乎保留了原始向量的全部信息.CT算法正是根據(jù)這一理論對高維特征進(jìn)行采樣壓縮,這里采用的是Haar-like特征,Haar-like特征是計算機(jī)視覺領(lǐng)域一種常用的特征描述算子.其利用一個維數(shù)為m×n且滿足RIP條件的隨機(jī)矩陣E,將高維特征向量X(n維)轉(zhuǎn)換到低維特征向量V(m維),其中m遠(yuǎn)小于n,公式表示為

V=EX.

(1)

其中隨機(jī)矩陣E為一種非常稀疏的矩陣,第i行第j列元素取值如下:

(2)

Li等[18]證明了當(dāng)s=O(n)時,矩陣E滿足RIP條件,且每一行至多有4個非零元素需要計算,能夠有效提高算法的運(yùn)行速率.

CT算法采用樸素貝葉斯分類器進(jìn)行分類,利用公式(1)得到樣本圖像的低維特征向量V=(v1,…,vm)T.假設(shè)特征向量中各分量相互獨(dú)立,且每個樣本為目標(biāo)或背景的概率相同,則樸素貝葉斯分類器的模型如下:

(3)

式中,y=1代表正樣本,y=0代表負(fù)樣本.Diaconis等[18]證明了高維向量的隨機(jī)投影基本都服從高斯分布,所以可以假設(shè)條件概率p(vi|y=1)和p(vi|y=0)服從高斯分布,即

(4)

(5)

(6)

(7)

壓縮跟蹤算法是一種簡單高效的實(shí)時跟蹤算法,在一些簡單的場景下具有良好的跟蹤效果,但當(dāng)目標(biāo)的尺度發(fā)生變化時,壓縮跟蹤算法不能進(jìn)行自適應(yīng)的尺度更新,從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,且該算法的分類器能力不強(qiáng).針對上述問題,本文提出一種尺度自適應(yīng)的加權(quán)壓縮跟蹤算法,將尺度金字塔和判別相關(guān)濾波器運(yùn)用于CT算法中以選取合適的跟蹤尺度,并將貝葉斯分類器進(jìn)行加權(quán)處理,以提高算法的魯棒性和精確性.

2 結(jié)合尺度更新的加權(quán)壓縮跟蹤算法

2.1 尺度更新

利用判別相關(guān)濾波器及尺度金字塔進(jìn)行尺度更新,求得不同尺度下的相關(guān)濾波器響應(yīng),最大的響應(yīng)值對應(yīng)的尺度即為當(dāng)前尺度.假設(shè)圖像塊f具有d維特征描述,即fl(l∈{1,…,d}),這里采用融合方向梯度直方圖(fhog)特征,通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成hog特征,對hog特征進(jìn)行融合得到fhog特征.可以通過最小化下列代價函數(shù)求得最佳相關(guān)濾波器h:

(8)

式中,每一維特征fl對應(yīng)一個濾波器hl,g為與特征f相關(guān)聯(lián)的期望相關(guān)輸出,λ≥0為正則項的系數(shù).在頻域中求解式(8)可得:

(9)

(10)

(11)

式中,η為學(xué)習(xí)率.新的一幀中,目……標(biāo)尺度通過求解最大相關(guān)濾波器響應(yīng)y來確定:

(12)

式中,F-1表示傅里葉逆變換,以目標(biāo)位置為中心提取不同尺度下的樣本z,分別提取不同樣本的fhog特征,每個樣本的fhog特征串聯(lián)成一個特征向量并構(gòu)成金字塔特征,將金字塔特征乘以一維漢明窗后作為Z的值.用于目標(biāo)尺度估計的尺度選擇原則為

2.2 加權(quán)分類器構(gòu)建

CT算法中構(gòu)建分類器的所有特征的權(quán)值都為1,但正負(fù)樣本特征的分類能力不同,所以CT算法中的分類器無法突出具有強(qiáng)分類能力特征的重要性,從而導(dǎo)致分類器的分類能力不強(qiáng).在構(gòu)建分類器時,考慮到利用正負(fù)樣本特征相似度的大小對分類器進(jìn)行加權(quán)可以增強(qiáng)分類能力,本文利用巴氏系數(shù)來衡量正負(fù)樣本的相似度.對于連續(xù)分布,巴氏系數(shù)的表達(dá)式為

(14)

式中,B∈[0,1],B越大則兩者的相似度越大.根據(jù)正負(fù)樣本的巴氏系數(shù)對分類器進(jìn)行加權(quán).正負(fù)樣本的巴氏系數(shù)越小,分類能力越強(qiáng),因此給其賦予的權(quán)值也就越大.加權(quán)后的分類器能夠有效地對訓(xùn)練樣本的分類能力強(qiáng)弱進(jìn)行區(qū)分,提升了自身的分類能力.加權(quán)分類器模型為

(15)

2.3 算法流程

輸入:第t幀圖像,上一幀的目標(biāo)位置It-1及尺度St-1;上一幀的尺度模型At-1,Bt-1;正采樣半徑rp;負(fù)采樣半徑rn1,rn2;跟蹤搜索半徑r;正負(fù)樣的相似度B.

(1) 采集樣本集A={s|‖I(s)-It-1‖

(2) 根據(jù)式(15)構(gòu)建分類器H,檢測出A中使H響應(yīng)值最大的樣本位置即為目標(biāo)位置It.

(3) 以目標(biāo)位置為中心,根據(jù)尺度及式(13)提取33種不同尺度的樣本z.

(4) 利用z,At-1,Bt-1、及式(12)計算出相關(guān)濾波器響應(yīng)y.

(5) 找到最大的y對應(yīng)的尺度,并將其作為當(dāng)前尺度St.

(6) 采樣正樣本集Ap={s|‖I(s)-It‖

(7) 根據(jù)It及St提取fhog特征樣本f,利用式(10)和式(11)更新尺度模型At,Bt.

輸出:當(dāng)前幀目標(biāo)位置It及尺度St,尺度模型At,Bt.

3 結(jié)果與分析

為了驗(yàn)證本文算法的有效性,選擇與CT[11]、FCT[12]、LOT[20]、DFT[21]4種算法進(jìn)行比較,選取6組具有尺度變化以及其他挑戰(zhàn)因素的視頻序列進(jìn)行測試.實(shí)驗(yàn)環(huán)境為Intel Core i5雙核處理器,2.27 GHz主頻,2 GB內(nèi)存,Windows 7操作系統(tǒng),MATLAB R2014a.

3.1 參數(shù)設(shè)置

設(shè)置正則化參數(shù)λ=0.01,尺度濾波器大小是初始目標(biāo)大小的兩倍,選取尺度間隔為a=1.02的33個尺度值來獲得最優(yōu)尺度,尺度金字塔的學(xué)習(xí)率η1=0.025,正樣本采樣半徑rp=4,表示在中心點(diǎn)附近以4個像素為半徑的圓進(jìn)行采樣,生成45個正樣本,負(fù)樣本采樣半徑rn1=8,rn2=30,隨機(jī)采樣50個負(fù)樣本,壓縮跟蹤算法的學(xué)習(xí)率η2=0.85,采集候選目標(biāo)的采樣半徑r=20,大約生成1 100個候選樣本,選取m=100個樣本低維特征進(jìn)行分類器的訓(xùn)練.

3.2 數(shù)據(jù)分析

為了評價跟蹤算法的性能,采用跟蹤成功率作為衡量的標(biāo)準(zhǔn).首先,計算每一幀目標(biāo)跟蹤位置和真實(shí)目標(biāo)位置的重疊率

(16)

式中,rt表示跟蹤位置矩形框,ra表示真實(shí)目標(biāo)矩形框,|·|表示矩形框中的像素點(diǎn)個數(shù),S表示跟蹤準(zhǔn)確度的高低.S越大,準(zhǔn)確度越高,當(dāng)S≥0.5時認(rèn)為該幀跟蹤成功.跟蹤成功率由跟蹤成功的幀數(shù)除以總的幀數(shù)來獲得.將SCT算法與4種跟蹤算法在6種視頻序列上的跟蹤成功率繪制成表1,每種視頻序列跟蹤成功率最高的用黑體標(biāo)注,次高用斜體標(biāo)注.從表1可以看出,本文算法(圖表中簡寫為SCT)跟蹤成功率最高的有4個,次高的有2個,且平均跟蹤成功率最高.相比CT和FCT算法,本文算法的跟蹤成功率取得了一定的提升.實(shí)驗(yàn)結(jié)果表明,本文提出的算法具有較好的跟蹤效果,有效地改進(jìn)了CT算法的跟蹤性能.

為了更好地評價跟蹤算法性能,將平均中心誤差作為另一衡量標(biāo)準(zhǔn).中心誤差是指跟蹤目標(biāo)框中心位置和真實(shí)目標(biāo)框中心位置之間的歐氏距離,所有幀中心誤差的平均值即為平均中心誤差,其值越小跟蹤結(jié)果越準(zhǔn)確.將本文算法與4種跟蹤算法在6種視頻序列上的平均中心誤差繪制成表2,最低的平均中心誤差用黑體標(biāo)注,次低用斜體標(biāo)注.從表2的實(shí)驗(yàn)數(shù)據(jù)可以看出本文算法在6組視頻序列中有3個最低平均中心誤差,2個次低平均中心誤差,且其6組平均中心誤差的期望值最?。畬?shí)驗(yàn)結(jié)果表明,在跟蹤精度上,本文算法相較于CT算法取得了一定的改進(jìn),算法性能較好.

每秒運(yùn)行幀數(shù)(fps)是衡量算法運(yùn)行速率的標(biāo)準(zhǔn)之一,fps越大則算法運(yùn)行速度越快.各算法的fps如表3所示,從表3可以看出雖然本文算法相較于CT算法和FCT算法而言運(yùn)行速度較慢,但本文算法基本能夠滿足實(shí)時性要求.

表1跟蹤成功率

Table 1 Rate of successful tracking %

視頻序列CTFCTSCTLOTDFTdog40143968525951424058car132053390711659363795dancer46835949742672986522dog151745343723282514351carscale34984305573234674136walking39605518658269695616平均值40894746655861774746

表 2 平均中心誤差

表 3 每秒運(yùn)行幀數(shù)

3.3 圖示分析

為了進(jìn)一步比較各算法的跟蹤性能,分別給出各算法OPE下的成功率曲線圖以及精確度曲線圖,OPE是指將視頻序列按照順序一幀一幀地使用跟蹤算法進(jìn)行處理.圖1為5種算法的OPE成功率曲線圖,圖中的成功率為閾值從0到1變化時各算法跟蹤成功幀所占的比例.若使用某一特定閾值下的成功率作為評價準(zhǔn)則,則評價結(jié)果會具有不公平性,因此采用曲線下面積(AUC)大小來評估算法性能,AUC越大則算法的跟蹤成功率越高.從圖1可以看出5種算法中SCT算法的AUC最大,CT算法的AUC最小,即SCT算法的跟蹤成功率最高.

圖2為5種算法的OPE精確度曲線圖,圖中精確度由中心誤差距離滿足閾值條件的幀數(shù)除以總幀數(shù)計算得到,閾值的取值范圍為0到50,其單位為像素.不失一般性,選取閾值為20時的精確度作為評價標(biāo)準(zhǔn),從圖2可以看出,5種算法中SCT算法的精確度最高,CT算法的精確度最低,SCT算法較其余4種算法具有較好的跟蹤性能.

圖 1 成功率曲線 圖 2 精確度曲線 Fig.1 Success plot Fig.2 Precision plot

文獻(xiàn)[22]將視頻的挑戰(zhàn)因素分為11類,每個視頻序列都具有至少一種挑戰(zhàn)因素.為了進(jìn)一步分析本文算法的性能,給出了3種因素下的算法成功率曲線圖和精確度曲線圖,3種因素分別為尺度變化、平面外旋轉(zhuǎn)以及平面內(nèi)旋轉(zhuǎn),每個曲線圖下方標(biāo)題中括弧內(nèi)的數(shù)字是指該挑戰(zhàn)因素下包含的序列組數(shù).從圖3可以看出在3種因素下,SCT算法的成功率以及精確度均優(yōu)于其余4種算法.尤其對于CT算法而言,改進(jìn)算法有效地解決了目標(biāo)尺度變化問題且能夠較好地解決目標(biāo)旋轉(zhuǎn)問題.

(a) OPE尺度變化成功率曲線(6) (b) OPE平面外旋轉(zhuǎn)下的成功率曲線(4)

(c) OPE平面內(nèi)旋轉(zhuǎn)下的成功率曲線(3) (d) OPE尺度變化精度曲線(6)圖 3 尺度變化、平面外旋轉(zhuǎn)、平面內(nèi)旋轉(zhuǎn)因素下的曲線圖Fig.3 Plots for SV, OPR and IPR subsets

(e) OPE平面外旋轉(zhuǎn)精度曲線(4) (f) OPE平面內(nèi)旋轉(zhuǎn)精度曲線(3)圖 3 尺度變化、平面外旋轉(zhuǎn)、平面內(nèi)旋轉(zhuǎn)因素下的曲線圖Fig.3 Plots for SV, OPR and IPR subsets

為了更為準(zhǔn)確地驗(yàn)證本文算法的有效性,對5種算法的跟蹤結(jié)果進(jìn)行比較,選取部分視頻序列顯示如圖4所示.圖4(a)為5種算法在car1序列上的實(shí)驗(yàn)結(jié)果,從圖中可以看出:#0027幀時,CT算法和FCT算法均出現(xiàn)了一定的偏移現(xiàn)象,而其余3種算法跟蹤較為準(zhǔn)確;#0076幀時目標(biāo)尺度發(fā)生變化,SCT算法和LOT算法的跟蹤尺度也隨之發(fā)生變化,而其余算法的跟蹤尺度并沒有更新;當(dāng)目標(biāo)發(fā)生尺度變化及光照變化時(#0203幀及#0240幀),只有SCT算法能較為有效地跟蹤目標(biāo),其余算法均出現(xiàn)了一定的跟蹤漂移及丟失現(xiàn)象.實(shí)驗(yàn)結(jié)果表明本文算法能夠進(jìn)行自適應(yīng)的尺度更新且跟蹤效果較好.

圖4(b)為carscale序列上的實(shí)驗(yàn)結(jié)果,在carscale視頻序列中,主要影響因素為尺度變化及部分遮擋.#0159幀時,LOT算法受部分遮擋的影響而丟失目標(biāo),在之后的跟蹤中沒能找回目標(biāo);隨著目標(biāo)的尺度變化及遮擋面積增多(#0172幀),DFT算法發(fā)生跟蹤丟失現(xiàn)象且之后沒能找回目標(biāo),CT算法和FCT算法雖能跟蹤上目標(biāo),但跟蹤框沒有進(jìn)行尺度更新且存在一定的跟蹤漂移現(xiàn)象.從實(shí)驗(yàn)結(jié)果(#0159幀、#0172幀、#0196幀)可以看出本文算法能夠有效處理尺度變化及部分遮擋問題,且比另外4種算法跟蹤效果要好.

dog視頻序列的主要挑戰(zhàn)因素為尺度變化和平面內(nèi)旋轉(zhuǎn).當(dāng)目標(biāo)尺度發(fā)生變化時(#0070幀、#0082幀、#0088幀),LOT算法和本文算法的尺度跟蹤尺度隨著目標(biāo)尺度的變化而變化,但前者在目標(biāo)發(fā)生旋轉(zhuǎn)(#0070幀、#0088幀)時發(fā)生了跟蹤漂移現(xiàn)象而本文算法則能有效地跟蹤,其他3種算法都沒有對目標(biāo)的尺度進(jìn)行更新從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,如圖4(c)所示.

dog1視頻序列主要有尺度變化和旋轉(zhuǎn)的影響.#0238幀時目標(biāo)發(fā)生一定的旋轉(zhuǎn)變化,LOT算法的尺度更新發(fā)生偏差,產(chǎn)生一定的跟蹤漂移現(xiàn)象,目標(biāo)發(fā)生尺度變化時(#0919幀),DFT算法發(fā)生跟蹤丟失現(xiàn)象且之后未能找回目標(biāo),CT算法和FCT算法的跟蹤尺度都未發(fā)生變化,而本文算法和LOT算法能較為有效地跟蹤目標(biāo),當(dāng)目標(biāo)再次發(fā)生旋轉(zhuǎn)變化時(#1102幀),LOT算法、CT算法及FCT算法皆發(fā)生了一定的跟蹤漂移現(xiàn)象,本文算法則能較為準(zhǔn)確地跟蹤目標(biāo),如圖4(d)所示.圖4的實(shí)驗(yàn)結(jié)果表明本文算法在尺度更新方面對CT算法進(jìn)行了有效的改進(jìn),且在部分遮擋及旋轉(zhuǎn)的情況下仍能有效跟蹤目標(biāo).

(a) car 1圖 4 部分序列跟蹤結(jié)果Fig.4 Tracking results of some sequences

(b) carscale

(a) dog

(d) dog 1

圖 4 部分序列跟蹤結(jié)果Fig.4 Tracking results of some sequences

4 結(jié) 論

(1) 針對尺度更新問題,利用相關(guān)濾波器進(jìn)行尺度估計,以目標(biāo)位置為中心提取33種不同尺度下的樣本并求得樣本的金字塔特征,將金字塔特征乘以一維漢明窗作為相關(guān)濾波器響應(yīng)的特征輸入,使得相關(guān)濾波器響應(yīng)最大的尺度即為當(dāng)前尺度值.

(2) 針對分類器分類能力不強(qiáng)的問題,通過對分類器進(jìn)行加權(quán)來提高分類能力,利用巴氏系數(shù)衡量正負(fù)樣本的判別能力.巴氏系數(shù)越大則樣本判別能力越差,分類器權(quán)值用巴氏系數(shù)計算得到,分類能力越大的特征,其權(quán)值越大.

(3) 在目標(biāo)尺度發(fā)生變化的情況下,本文算法能夠?qū)崿F(xiàn)尺度的自適應(yīng)更新,而且在部分遮擋,平面內(nèi)外旋轉(zhuǎn)等情況仍能保持較好的跟蹤性能.在時間復(fù)雜度方面,本文算法較原有算法有所增加.

參考文獻(xiàn)(References):

[1] YILMAZ A,JAVED O,SHAH M.Object tracking:A survey[J].ACM Computing Surveys,2006,38(4):1-45.

[2] COMANICIU D,RAMESH V,MEER P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

[3] CAI N,ZHU N,GUO W,et al.Object tracking using mean shift for adaptive weighted-sum histograms[J].Circuits Systems and Signal Processing,2014,33(2):483-499.

[4] BRADSKI G R.Real time face and object tracking as a component of a perceptual user interface[C]//Proceedings of the 4th IEEE Workshop on Applications of Computer Vision.Princeton,USA:IEEE,2002:214-219.

[5] ROSS A D,LIM J,LIN R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1-3):125-141.

[6] MEI X,LING H B.Robust visual tracking and vehicle classification via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(11):2259-2272.

[7] GRABNER H,GRABNER M,BISCHOF H.Real-time tracking via on-line boosting[C]//Proceedings of the British Machine Vision Conference 2013.Dundee,Britain:BMVA Press,2013:47-56.

[8] BABENKO B,YANG M H,BELONGIE S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

[9] WANG S,LU H,YANG F,et al.Superpixel tracking[C]//Proceedings of International Conference on Computer Vision.Barcelona,Spain:IEEE,2011:1323-1330.

[10] HARE S,SAFFARI A,TORR P H S.Struck:Structured output tracking with kernels[C]//Proceedings of International Conference on Computer Vision.Barcelona,Spain:IEEE,2012:263-270.

[11] ZHANG K,ZHANG L,YANG M H.Real-time compressive tracking[C]//Proceedings of European Conference on Computer Vision.Florence,Italy:IEEE,2012:864-877.

[12] ZHANG K,ZHANG L,YANG M H.Fast compressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.

[13] 耿磊,王學(xué)彬,肖志濤,等.結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法[J].自動化學(xué)報,2016,42(9):1421-1431.

GENG L,WANG X B,XIAO Z T,et al.Fast compressive tracking algorithm combining feature selection with secondary localization[J].Acta Automatica Sinica,2016,42(9):1421-1431.

[14] 李慶武,朱國慶,周妍,等.基于特征在線選擇的目標(biāo)壓縮跟蹤算法[J].自動化學(xué)報,2015,41(11):1961-1970.

LI Q W,ZHU G Q,ZHOU Y,et al.Object compressive tracking via online feature selection[J].Acta Automatica Sinica,2015,41(11):1961-1970.

[15] 馬麗麗,陳金廣,胡西民,等.目標(biāo)跟蹤濾波性能的評價準(zhǔn)則[J].西安工程大學(xué)學(xué)報,2013,27(3):364-368.

MA L L,CHEN J G,HU X M,et al.Evaluation metrics for filtering performance in target tracking system[J].Journal of Xi′an Polytechnic University,2013,27(3):364-368.

[16] 李杰,周浩,張晉,等.粒子群優(yōu)化的壓縮跟蹤算法[J].中國圖象圖形學(xué)報,2016,21(8):1068-1077.

LI J,ZHOU H,ZHANG J,et al.Compressive tracking algorithm based on particle swarm optimization[J].Journal of Image & Graphics,2016,21(8):1068-1077.

[18] LI P,HASTIE T J,CHURCH K W.Very sparse random projections[C]//Proceedings of 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.Philadelphia,USA:ACM,2006:287-296.

[19] DIACONIS P,FREEDMAN D.Asymptotics of graphical projection pursuit[J].Annals of Statistics,1984,12(3):793-815.

[20] AVIDAN S,LEVI DM,BARHILLEL A,et al.Locally orderless tracking[C]//Proceedings of International Journal of Computer Vision,2012,111(2):213-228.

[21] SEVILLA-LARA L,LEARNED-MILLER E.Distribution fields for tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Providence,RI,USA:IEEE,2012:1910-1917.

[22] WU Y,LIM J,YANG M H.Online object tracking:A benchmark[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Portland,OR,USA:IEEE,2013:2411-2418.

猜你喜歡
分類器濾波器尺度
財產(chǎn)的五大尺度和五重應(yīng)對
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
開關(guān)電源EMI濾波器的應(yīng)用方法探討
電子制作(2018年16期)2018-09-26 03:26:50
BP-GA光照分類器在車道線識別中的應(yīng)用
電子測試(2018年1期)2018-04-18 11:52:35
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
基于Canny振蕩抑制準(zhǔn)則的改進(jìn)匹配濾波器
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
基于TMS320C6678的SAR方位向預(yù)濾波器的并行實(shí)現(xiàn)
9
宝坻区| 车险| 满城县| 汽车| 黄陵县| 新龙县| 高州市| 新巴尔虎左旗| 西乡县| 汤原县| 宁远县| SHOW| 文安县| 启东市| 余庆县| 榆中县| 兰州市| 临泽县| 阿尔山市| 洞头县| 杭锦旗| 乐亭县| 长海县| 和顺县| 噶尔县| 武穴市| 阜新市| 延长县| 原阳县| 深州市| 永川市| 宁国市| 安康市| 无为县| 信阳市| 康马县| 敖汉旗| 繁昌县| 龙山县| 师宗县| 临湘市|