国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

利用快速傅里葉變換的雙層搜索目標(biāo)跟蹤算法

2016-11-23 13:46:24侯志強(qiáng)余旺盛許婉君
關(guān)鍵詞:直角坐標(biāo)對(duì)數(shù)表觀

張 浪,侯志強(qiáng),余旺盛,許婉君

(空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)

利用快速傅里葉變換的雙層搜索目標(biāo)跟蹤算法

張 浪,侯志強(qiáng),余旺盛,許婉君

(空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)

針對(duì)視覺(jué)跟蹤中目標(biāo)表觀變化、尺度及旋轉(zhuǎn)變化問(wèn)題,提出了利用快速傅里葉變換的雙層搜索目標(biāo)跟蹤算法.算法在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系分別構(gòu)建目標(biāo)核嶺回歸模型并進(jìn)行目標(biāo)雙層搜索,同時(shí)利用快速傅里葉變換將時(shí)域運(yùn)算轉(zhuǎn)換到頻域運(yùn)算提高跟蹤效率.首先在直角坐標(biāo)系中建立目標(biāo)核嶺回歸模型并構(gòu)建循環(huán)結(jié)構(gòu)矩陣進(jìn)行窮搜索得到目標(biāo)中心位置;然后以目標(biāo)中心位置為原點(diǎn)將跟蹤區(qū)域變換到對(duì)數(shù)極坐標(biāo)系再次建立目標(biāo)核嶺回歸模型,并窮搜索得到目標(biāo)在對(duì)數(shù)極坐標(biāo)系的平移量;最后依據(jù)搜索結(jié)果確定目標(biāo)狀態(tài)并進(jìn)行模型更新.實(shí)驗(yàn)結(jié)果表明,這種算法不僅對(duì)表觀變化、尺度及旋轉(zhuǎn)變化具有較強(qiáng)的魯棒性,而且跟蹤實(shí)時(shí)性較好.

視覺(jué)跟蹤;雙層搜索;對(duì)數(shù)極坐標(biāo);快速傅里葉變換

隨著計(jì)算機(jī)視覺(jué)和多媒體技術(shù)的迅速發(fā)展,目標(biāo)跟蹤問(wèn)題受到越來(lái)越多學(xué)者的關(guān)注[1-3].目標(biāo)運(yùn)動(dòng)過(guò)程中表觀、尺度及旋轉(zhuǎn)角度不斷變化是跟蹤失敗的重要原因,因此如何構(gòu)建魯棒的表觀模型及實(shí)現(xiàn)目標(biāo)的快速搜索是當(dāng)前研究的熱點(diǎn).Mean Shift算法[4]利用顏色直方圖特征構(gòu)建目標(biāo)模型,但容易匹配到具有相似顏色直方圖特征的背景中去;文獻(xiàn)[5]提出融合多種特征進(jìn)行目標(biāo)跟蹤,增強(qiáng)了對(duì)背景變化的適應(yīng)性;文獻(xiàn)[6]提出利用局部分塊構(gòu)建目標(biāo)模型,能有效地解決遮擋問(wèn)題;文獻(xiàn)[7]增強(qiáng)了目標(biāo)分塊的自適應(yīng)能力,能較好地適應(yīng)目標(biāo)形變問(wèn)題;基于循環(huán)結(jié)構(gòu)的檢測(cè)跟蹤法[8-9]提出利用循環(huán)結(jié)構(gòu)矩陣建立目標(biāo)回歸跟蹤模型,但算法對(duì)于復(fù)雜背景干擾及遮擋變化比較敏感.近年來(lái),基于壓縮感知和稀疏子空間理論為構(gòu)建目標(biāo)模型提供了新思路.文獻(xiàn)[10]通過(guò)目標(biāo)的正負(fù)樣本集建立目標(biāo)的稀疏相似圖,然后利用該相似圖搜索與目標(biāo)最相似的候選目標(biāo).文獻(xiàn)[11]將目標(biāo)模型映射到一組由特征基張成的子空間,并利用稀疏理論對(duì)目標(biāo)進(jìn)行壓縮感知描述.

筆者提出在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系分別構(gòu)建目標(biāo)核嶺回歸模型,并利用快速傅里葉變換進(jìn)行雙層搜索.利用目標(biāo)表觀信息在直角坐標(biāo)系構(gòu)建表觀模型精確搜索目標(biāo)位置,進(jìn)而利用對(duì)數(shù)極坐標(biāo)的尺度旋轉(zhuǎn)不變性確定目標(biāo)的尺度和旋轉(zhuǎn)變化量.同時(shí),算法通過(guò)構(gòu)造循環(huán)結(jié)構(gòu)矩陣將時(shí)域運(yùn)算變換到頻域運(yùn)算以提高跟蹤效率.實(shí)驗(yàn)結(jié)果表明,該算法不僅能較好地適應(yīng)表觀、尺度及旋轉(zhuǎn)變化,而且跟蹤實(shí)時(shí)性較好.

1 相關(guān)理論介紹

筆者采用在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系分別構(gòu)建目標(biāo)核嶺回歸模型,并利用快速傅里葉變換進(jìn)行雙層搜索.先介紹核嶺回歸及對(duì)數(shù)極坐標(biāo)理論.

1.1基于快速傅里葉變換的核嶺回歸

線性回歸是利用數(shù)理統(tǒng)計(jì)中的回歸分析,輸出變量是輸入變量的線性組合[8]:

其中,wTx是變量之間的內(nèi)積;ζ表示預(yù)測(cè)值與真實(shí)值的偏差,一般服從標(biāo)準(zhǔn)正態(tài)分布,即ζ∝N(0,δ2).

通過(guò)構(gòu)造代價(jià)函數(shù)并求解得到嶺回歸解:

其中,λ為正則化參數(shù).

利用核技巧,可將線性回歸轉(zhuǎn)化為非線性回歸.將內(nèi)積x xT用核矩陣K代替,得到核嶺回歸的解:

對(duì)于新的圖像樣本x′,根據(jù)模型可以預(yù)測(cè)該樣本屬于目標(biāo)的響應(yīng):

類(lèi)似一維序列構(gòu)造循環(huán)結(jié)構(gòu)矩陣原理,通過(guò)構(gòu)造循環(huán)結(jié)構(gòu)矩陣可將式(4)從時(shí)域變換到頻域求解[8]:

需要注意的是,二維矩陣循環(huán)沿水平和垂直兩個(gè)方向進(jìn)行[9],其示意圖如圖1所示.

圖1 構(gòu)造循環(huán)結(jié)構(gòu)示意圖

由于一幅圖像對(duì)應(yīng)一個(gè)像素矩陣,則對(duì)一個(gè)圖像塊x,通過(guò)對(duì)原始圖像進(jìn)行水平及垂直方向循環(huán)移位,可得到一系列訓(xùn)練樣本,從而構(gòu)造循環(huán)結(jié)構(gòu)矩陣并建立目標(biāo)模型.筆者取圖像塊x為目標(biāo)區(qū)域的M倍,定義y為與x等大小且滿(mǎn)足高斯分布的函數(shù),y的每個(gè)取值對(duì)應(yīng)不同訓(xùn)練樣本的響應(yīng)值,通過(guò)構(gòu)造循環(huán)結(jié)構(gòu)建立目標(biāo)訓(xùn)練樣本與對(duì)應(yīng)響應(yīng)值的映射關(guān)系,并利用快速傅里葉變換將模型構(gòu)建從時(shí)域運(yùn)算轉(zhuǎn)換到頻域運(yùn)算.需注意,循環(huán)結(jié)構(gòu)矩陣由原始圖像矩陣循環(huán)移位得到,其頻域運(yùn)算可快速求得所有訓(xùn)練樣本與響應(yīng)值映射關(guān)系.在下一幀圖像塊x′中,利用目標(biāo)模型在頻域進(jìn)行模型學(xué)習(xí),可快速實(shí)現(xiàn)對(duì)所有位置遍歷窮搜索.

1.2對(duì)數(shù)極坐標(biāo)變換(LBP)

一幅圖像可以用直角坐標(biāo)系(x,y)描述,也可以用對(duì)數(shù)極坐標(biāo)(ξ,ψ)描述,它們的關(guān)系如下[12]:

圖像的對(duì)數(shù)極坐標(biāo)表示具有重要性質(zhì),在直角坐標(biāo)系下的尺度和旋轉(zhuǎn)變化可轉(zhuǎn)化為對(duì)數(shù)極坐標(biāo)系下沿半徑和角度軸的平移變化.假設(shè)圖像在直角坐標(biāo)系下以目標(biāo)為中心變?yōu)樵瓉?lái)的k倍、旋轉(zhuǎn)φ弧度時(shí),則

可以看出,在對(duì)數(shù)極坐標(biāo)系中,圖像的尺度變化表現(xiàn)為沿極半徑平移,旋轉(zhuǎn)變化表現(xiàn)為沿極角平移.

圖2 對(duì)數(shù)極坐標(biāo)變換原理圖

2 跟蹤算法

算法實(shí)現(xiàn)分兩步:首先,在直角坐標(biāo)系中,在包含目標(biāo)的跟蹤區(qū)域建立目標(biāo)核嶺回歸模型,構(gòu)造循環(huán)結(jié)構(gòu)矩陣進(jìn)行窮搜索得到目標(biāo)中心位置;然后,在對(duì)數(shù)極坐標(biāo)系中,將以目標(biāo)中心為原點(diǎn)的跟蹤區(qū)域變換到對(duì)數(shù)極坐標(biāo)再次建立核嶺回歸模型,并利用對(duì)數(shù)極坐標(biāo)系的尺度旋轉(zhuǎn)不變性估計(jì)目標(biāo)的尺度和旋轉(zhuǎn)變化.

2.1直角坐標(biāo)系目標(biāo)窮搜索

在直角坐標(biāo)系中,筆者采用基于快速傅里葉變換的目標(biāo)窮搜索方法.由于利用目標(biāo)表觀信息構(gòu)建目標(biāo)模型,算法對(duì)表觀變化、背景干擾等適應(yīng)性較好.目標(biāo)模型通過(guò)在第一幀圖像中手動(dòng)標(biāo)注獲得訓(xùn)練樣本,然后利用上述介紹的核嶺回歸理論建立模型.目標(biāo)的直角坐標(biāo)系模型表示為

其中,(x,y)表示手動(dòng)標(biāo)注的目標(biāo)中心位置.

在對(duì)目標(biāo)進(jìn)行搜索時(shí),該算法將搜索區(qū)域設(shè)定為以上幀跟蹤結(jié)果為中心的4倍目標(biāo)尺寸的區(qū)域,通過(guò)構(gòu)建循環(huán)結(jié)構(gòu)矩陣并將時(shí)域運(yùn)算轉(zhuǎn)換到頻域運(yùn)算進(jìn)行快速窮搜索,得到目標(biāo)的中心位置(x′,y′).

2.2對(duì)數(shù)極坐標(biāo)系目標(biāo)窮搜索

對(duì)數(shù)極坐標(biāo)具有尺度旋轉(zhuǎn)不變性,但很少有好的模型能利用該性質(zhì)來(lái)估計(jì)目標(biāo)的尺度和旋轉(zhuǎn)變化.筆者將基于快速傅里葉變換的窮搜索方法引入對(duì)數(shù)極坐標(biāo)域,通過(guò)搜索目標(biāo)在對(duì)數(shù)極坐標(biāo)系的平移量來(lái)精確估計(jì)尺度和旋轉(zhuǎn)變化.以目標(biāo)中心位置為原點(diǎn)將跟蹤區(qū)域變換到對(duì)數(shù)極坐標(biāo)并建立目標(biāo)對(duì)數(shù)極坐標(biāo)系模型:

其中,(i,j)表示目標(biāo)對(duì)數(shù)極坐標(biāo)區(qū)域中心位置.

通過(guò)對(duì)數(shù)極坐標(biāo)窮搜索得到目標(biāo)在對(duì)數(shù)極坐標(biāo)系的平移(m,n),則其在直角坐標(biāo)系的尺度和角度為

其中,Wt和θt分別為目標(biāo)在t幀的尺度和角度,k1和k2分別為極半徑與極角的映射因子.

2.3模型更新

為適應(yīng)目標(biāo)變化及減少背景的干擾,采用線性加權(quán)機(jī)制來(lái)對(duì)目標(biāo)模型進(jìn)行更新.算法設(shè)置兩個(gè)模型更新因子α和β分別對(duì)直角坐標(biāo)系模型wcar和對(duì)數(shù)極坐標(biāo)系模型wlog進(jìn)行實(shí)時(shí)更新:

其中,wt表示第t幀的直角坐標(biāo)系模型wcar或?qū)?shù)極坐標(biāo)系模型wlog,υ為對(duì)應(yīng)的模型更新因子.

2.4算法流程

基于快速傅里葉變換的雙層搜索目標(biāo)跟蹤算法如下.

輸入:圖像Ik,初始目標(biāo)位置O0,初始跟蹤框Obb0.

輸出:當(dāng)前幀目標(biāo)狀態(tài)(Ok,Obbk).

如果k=1:

第1步 根據(jù)初始條件確定目標(biāo)區(qū)域,并變換到對(duì)數(shù)極坐標(biāo)系.

第2步 在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系分別建立目標(biāo)核嶺回歸模型wcar和wlog.

如果k>1:

第1步 在直角坐標(biāo)系中,根據(jù)輸入條件確定搜索區(qū)域,構(gòu)造循環(huán)結(jié)構(gòu)矩陣窮搜索得目標(biāo)中心位置Ok.

第2步 將以O(shè)k為中心的目標(biāo)區(qū)域變換到對(duì)數(shù)極坐標(biāo)系,并利用模型wlog搜索目標(biāo)的平移量(m,n).

第3步 根據(jù)上述搜索結(jié)果確定目標(biāo)狀態(tài)(Ok,Obbk),并進(jìn)行模型更新.

筆者提出算法的流程圖如圖3所示.

圖3 算法流程圖

3 實(shí)驗(yàn)結(jié)果與分析

為驗(yàn)證上述跟蹤算法的有效性,進(jìn)行了大量的實(shí)驗(yàn)仿真.實(shí)驗(yàn)中設(shè)置直角坐標(biāo)系目標(biāo)窮搜索范圍為目標(biāo)大小的4倍,對(duì)數(shù)極坐標(biāo)系窮搜索范圍為目標(biāo)大小的2倍,核嶺回歸模型正則化參數(shù)λ=0.01,高斯核方差δ=0.1,直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系的模型更新因子為α(0.05≤α≤0.15)和β(0.05≤β≤0.15).α和β取值區(qū)間是經(jīng)過(guò)大量實(shí)驗(yàn)得到的,對(duì)不同視頻需人為設(shè)定最佳值.

為說(shuō)明該算法在處理目標(biāo)表觀變化、尺度及旋轉(zhuǎn)變化等的優(yōu)勢(shì),有針對(duì)性地選取了6組具有挑戰(zhàn)性的測(cè)試視頻和4種對(duì)比算法:除Sylvester-2008視頻、Cliffbar視頻及目標(biāo)真實(shí)位置來(lái)自文獻(xiàn)[10]外,其余視頻及真實(shí)位置均來(lái)自文獻(xiàn)[3];4種對(duì)比算法分別為BHT[7],CSK[8],CT[11]和DSSM[10].為保證對(duì)比試驗(yàn)的公平性,CSK算法和CT算法的跟蹤結(jié)果直接使用文獻(xiàn)[3]的公開(kāi)結(jié)果,其余算法均為多次實(shí)驗(yàn)取最優(yōu)結(jié)果.所有實(shí)驗(yàn)都在聯(lián)想CPU-E5300,2.60 GHz,3.25 GB內(nèi)存的臺(tái)式機(jī)進(jìn)行,算法通過(guò)MATLAB 2009a實(shí)現(xiàn).

3.1定性對(duì)比

3.1.1Boy序列

“Boy序列”的跟蹤難點(diǎn)是快速運(yùn)動(dòng)、尺度和旋轉(zhuǎn)變化.如圖4(a)所示,當(dāng)目標(biāo)快速運(yùn)動(dòng)時(shí),BHT算法出現(xiàn)跟蹤丟失,CT算法出現(xiàn)一定程度偏差;與CSK算法相比,雖都進(jìn)行了窮搜索,筆者提出的算法通過(guò)雙層搜索具有更好的魯棒性,而CSK算法跟蹤丟失,如第602幀所示;DSSM算法和筆者提出的算法均能較好地跟蹤目標(biāo).

3.1.2Dog1序列

“Dog1序列”的跟蹤難點(diǎn)是目標(biāo)表觀變化和明顯的尺度變化.如圖4(b)所示,當(dāng)目標(biāo)尺度發(fā)生明顯的變化時(shí),BHT算法和CSK算法由于不能適應(yīng)尺度變化而出現(xiàn)一定程度的偏差;DSSM算法雖然也具有尺度自適應(yīng)能力,但也未能較好地適應(yīng)尺度的明顯變化,如第1 001幀所示(圖左上角為當(dāng)前幀數(shù));筆者提出的算法通過(guò)建立核嶺回歸模型進(jìn)行雙層窮搜索,不僅能較準(zhǔn)確地搜索目標(biāo)位置,而且能較好地適應(yīng)目標(biāo)尺度的變化.

3.1.3David2序列

“David2序列”的跟蹤難點(diǎn)是目標(biāo)表觀變化、背景干擾及平面內(nèi)的旋轉(zhuǎn)變化.如圖4(c)所示,由于背景的干擾,CT算法未能正確地區(qū)分目標(biāo)和背景而導(dǎo)致跟蹤目標(biāo)丟失;當(dāng)目標(biāo)進(jìn)行連續(xù)的轉(zhuǎn)動(dòng)時(shí),BHT算法也丟失跟蹤目標(biāo);CSK算法、DSSM算法及筆者提出的跟蹤算法均能成功地跟蹤目標(biāo),但是筆者提出的算法通過(guò)雙層窮搜索能更好地適應(yīng)目標(biāo)的變化,跟蹤精度更高,如第485幀所示.

3.1.4Cliffbar序列

“Cliffbar序列”的跟蹤難點(diǎn)是目標(biāo)表觀變化、復(fù)雜背景干擾及尺度和旋轉(zhuǎn)變化.如圖4(d)所示,由于目標(biāo)表觀不斷變化及背景干擾,BHT算法、CT算法和CSK算法均丟失跟蹤目標(biāo),如第342幀所示;筆者提出的算法和DSSM算法均能成功地跟蹤目標(biāo),但后段序列目標(biāo)尺度和旋轉(zhuǎn)的快速變化,使筆者提出的算法亦出現(xiàn)一定誤差.

3.1.5Sylvester-2008b序列

“Sylvester-2008b序列”的跟蹤難點(diǎn)是由平面外旋轉(zhuǎn)導(dǎo)致的表觀變化及光照變化.如圖4(e)所示,當(dāng)目標(biāo)在燈光下運(yùn)動(dòng)時(shí),由于存在平面外的轉(zhuǎn)動(dòng),目標(biāo)表觀姿態(tài)改變較大,CT算法跟蹤丟失,BHT算法、CSK算法及DSSM算法均出現(xiàn)一定程度的偏差,如第343幀所示;筆者提出的算法相對(duì)能更好地跟蹤目標(biāo).

3.1.6Singer序列

“Singer序列”的跟蹤難點(diǎn)是存在尺度變化及復(fù)雜背景干擾.如圖4(f)所示,由于復(fù)雜的背景干擾,BHT算法和CT算法均出現(xiàn)偏差;當(dāng)目標(biāo)尺度不斷縮小時(shí),CSK算法雖能成功地跟蹤目標(biāo),但不能適應(yīng)目標(biāo)的尺度變化;DSSM算法和筆者提出的算法均能較好地跟蹤目標(biāo),但筆者提出的算法對(duì)目標(biāo)的變化適應(yīng)性更好.

圖4 跟蹤算法性能的定性比較

3.2定量分析

為衡量跟蹤算法的跟蹤性能,筆者采用中心位置誤差、跟蹤成功率和平均每幀運(yùn)行時(shí)間來(lái)對(duì)筆者提出的算法和對(duì)比算法進(jìn)行對(duì)比分析.中心位置誤差和跟蹤成功率衡量跟蹤精度.誤差值越小,跟蹤精度越好;成功率值越大,跟蹤精度亦越好.平均每幀運(yùn)行時(shí)間衡量跟蹤效率,時(shí)間值越小,跟蹤效率越高.

3.2.1中心位置誤差

圖5所示為中心位置誤差對(duì)比曲線.BHT算法在Sylvester-2008b序列跟蹤誤差相對(duì)較小,CT算法在David2序列和Cliffbar等序列跟蹤誤差較大.除了Boy序列和Cliffbar序列,CSK算法在其他序列跟蹤精度較高,這是由于算法通過(guò)構(gòu)建循環(huán)結(jié)構(gòu)矩陣進(jìn)行目標(biāo)窮搜索,能在一定程度適應(yīng)目標(biāo)表觀變化.DSSM算法通過(guò)正負(fù)樣本構(gòu)建目標(biāo)模型,增強(qiáng)了算法對(duì)表觀變化及背景干擾等的適應(yīng)能力,除了Dog1序列,DSSM算法在其他序列跟蹤結(jié)果均較理想.筆者提出的算法分別在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系構(gòu)建目標(biāo)核嶺回歸模型,并進(jìn)行雙層搜索,增強(qiáng)了算法對(duì)目標(biāo)表觀變化、尺度和旋轉(zhuǎn)變化等的適應(yīng)能力,因此在所有序列均取得較小的中心位置誤差.

圖5 中心位置誤差比較

表1中每種算法第1列所示為目標(biāo)中心位置平均誤差值(CLE),其中粗正體表示最優(yōu)算法,粗斜體表示次優(yōu)算法.可以看出,筆者提出的算法除在Boy序列和Cliffbar序列取得次優(yōu)跟蹤結(jié)果外,在其他視頻序列均取得最優(yōu)跟蹤結(jié)果,具有最優(yōu)的平均跟蹤誤差值.

表1 中心位置誤差和跟蹤成功率比較

3.2.2跟蹤成功率

表1中每種算法第2列所示為跟蹤成功率(SR).筆者提出的算法在所有測(cè)試視頻序列中取得4組最優(yōu)結(jié)果和2組次優(yōu)結(jié)果,在平均跟蹤成功率上取得最優(yōu)結(jié)果.DSSM算法在Boy序列和Cliffbar序列取得最優(yōu)結(jié)果,在Singer序列取得次優(yōu)結(jié)果,在平均跟蹤成功率上取得次優(yōu)結(jié)果.

表1中最后一行是算法平均每幀運(yùn)行時(shí)間.筆者提出的算法和CSK算法都具有較高的跟蹤效率,主要是這兩種算法均利用快速傅里葉變換將時(shí)域運(yùn)算轉(zhuǎn)換到頻域運(yùn)算,雖然筆者提出的算法在直角坐標(biāo)系與對(duì)數(shù)極坐標(biāo)系分別構(gòu)建目標(biāo)模型進(jìn)行雙層窮搜索增加了算法復(fù)雜度,但跟蹤效率較一般算法仍具有較大優(yōu)勢(shì).

3.3討 論

實(shí)驗(yàn)發(fā)現(xiàn),筆者提出的算法相比其他算法在跟蹤精度和跟蹤效率上具有一定優(yōu)勢(shì),但是在極坐標(biāo)系的窮搜索模型是以在直角坐標(biāo)系的目標(biāo)定位為前提的.當(dāng)目標(biāo)定位誤差較大時(shí),在極坐標(biāo)系窮搜索得到的目標(biāo)平移量將不準(zhǔn)確,由此估計(jì)目標(biāo)尺度和旋轉(zhuǎn)變化量將存在一定誤差,如圖4中Cliffbar序列第342幀和Sylvester-2008b序列的343幀所示,這是筆者提出的跟蹤算法的不足.

4 總 結(jié)

筆者提出了一種利用快速傅里葉變換的雙層窮搜索目標(biāo)跟蹤算法,在直角坐標(biāo)系和對(duì)數(shù)極坐標(biāo)系分別構(gòu)建目標(biāo)核嶺回歸模型,并利用快速傅里葉變換進(jìn)行雙層窮搜索.首先,在直角坐標(biāo)系構(gòu)建目標(biāo)表觀模型并窮搜索得到目標(biāo)中心位置,然后在對(duì)數(shù)極坐標(biāo)系搜索目標(biāo)平移量,進(jìn)而利用對(duì)數(shù)極坐標(biāo)的尺度旋轉(zhuǎn)不變性確定目標(biāo)的尺度和旋轉(zhuǎn)變化量,同時(shí),算法通過(guò)構(gòu)造循環(huán)結(jié)構(gòu)矩陣將時(shí)域運(yùn)算變換到頻域運(yùn)算,有效地提高了跟蹤效率.實(shí)驗(yàn)結(jié)果表明,筆者提出的算法能較好地處理目標(biāo)表觀變化、尺度及旋轉(zhuǎn)變化等問(wèn)題,取得較好的跟蹤精度和跟蹤效率.需要指出的是,筆者提出算法的跟蹤精度對(duì)直角坐標(biāo)系目標(biāo)位置定位依賴(lài)度較大,當(dāng)目標(biāo)位置定位誤差較大時(shí),對(duì)目標(biāo)尺度和旋轉(zhuǎn)估計(jì)誤差較大,從而在模型更新時(shí)會(huì)引入較多的背景信息,這是筆者提出算法的不足.下一步工作將考慮通過(guò)跟蹤檢測(cè)判斷機(jī)制來(lái)避免上述問(wèn)題發(fā)生,進(jìn)一步提高算法的有效性和魯棒性.

[1]SMEULDERS A W,CHU D M,CUCCHIARA R,et al.Visual Tracking:an Experimental Survey[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(7):1442-1468.

[2]侯志強(qiáng),韓崇昭.視覺(jué)跟蹤技術(shù)綜述[J].自動(dòng)化學(xué)報(bào),2006,32(4):603-617. HOU Zhiqiang,HAN Chongzhao.A Survey of Visual Tracking[J].Acta Automatica sinica,2006,32(4):603-617.

[3]WU Y,LIM J,YANG M H.Online Object Tracking:a Benchmark[C]//International Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2013:2411-2418.

[4]COLLINS R T.Mean-shift Blob Tracking through Scale Space[C]//Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition.Los Alamitos:IEEE Computer Society,2003:234-240.

[5]李遠(yuǎn)征,盧朝陽(yáng),李靜.一種基于多特征融合的視頻目標(biāo)跟蹤方法[J].西安電子科技大學(xué)學(xué)報(bào),2012,39(4):1-6. LI Yuanzheng,LU Chaoyang,LI Jing.Robust Video Object Tracking Algorithm based on Multi-feature Fusion[J]. Journal of Xidian University,2012,39(4):1-6.

[6]ADAM A,RIVLIN E,SHIMSHONI I.Robust Fragments-based Tracking Using the Integral Histogram[C]//Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition.Los Alamitos:IEEE Computer Society,2006: 798-805.

[7]NEJHUM S M S,HO J,YANG M H.Online Visual Tracking with Histograms and Articulating Blocks[J].Computer Vision and Image Understanding,2010,114(8):901-914.

[8]HENRIQUES J F,CASEIRO R,MARTINS P,et al.Exploiting the Circulant Structure of Tracking-by-detection With Kernels[C]//Proceedings of European Conference on Computer Vision.Heidelberg:Springer Verlag,2012:702-715.

[9]HENRIQUES J F,CASEIRO R,MARTINS P,et al.High-speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.

[10]ZHUANG B H,LU H C,XIAO Z Y,et al.Visual Tracking via Discriminative Sparse Similarity Map[J].IEEE Transactions on Image Processing,2014,23(4):1872-1881.

[11]ZHANG K,ZHANG L,YANG M H.Real-time Compressive Tracking[C]//12th European Conference on Computer Vision.Heidelberg:Springer-Verlag,2012:864-877.

[12]METTA G,GASTERATOS A,SANDINI G.Learning to Track Colored Objects with Log-polar Vision[J].Mechatronics,2004,14(9):989-1006.

(編輯:郭 華)

Two-level searching tracking algorithm based on fast Fourier transform

ZH ANG Lang,HOU Zhiqiang,YU Wangsheng,XU Wanjun
(Information and Navigation College,Air Force Engineering Univ.,Xi’an 710077,China)

In order to solve the problems of appearance change,scale and rotation change in the visual tracking,a two-level searching tracking algorithm based on Fast Fourier Transform(FFT)is proposed.It achieves two-level searching by establishing the object’s kernel ridge regression model in the Cartesian coordinates and log-polar coordinates,respectively,and the efficiency can be improved by transforming the operation into the frequency domain based on FFT.First,the kernel ridge regression model is constructed in the Cartesian coordinate and the object’s center position is obtained by the exhaustive search method based on the circular structure matrix.Then,it transforms the object area to the log-polar coordinates and searches the shift using the kernel ridge regression model in the log-polar coordinates.Finally,the object’s state is calculated according to the searching results and the object’s model is updated.Experimental results indicate that the proposed algorithm not only can obtain a distinct improvement in coping with the appearance change,scale and rotation change,but also have a high tracking efficiency.

visual tracking;two-level searching;log-polar coordinate;fast Fourier transform

TP391

A

1001-2400(2016)05-0153-07

10.3969/j.issn.1001-2400.2016.05.027

2015-07-21 網(wǎng)絡(luò)出版時(shí)間:2015-12-10

國(guó)家自然科學(xué)基金資助項(xiàng)目(61175029,61473309);陜西省自然科學(xué)基金資助項(xiàng)目(2011JM8015,2015JM6269)

張 浪(1990-),男,空軍工程大學(xué)碩士研究生,E-mail:zhanglangwy@126.com.

網(wǎng)絡(luò)出版地址:http://www.cnki.net/kcms/detail/61.1076.TN.20151210.1529.054.html

猜你喜歡
直角坐標(biāo)對(duì)數(shù)表觀
從平面直角坐標(biāo)系到解析幾何
深入學(xué)習(xí)“平面直角坐標(biāo)系”
含有對(duì)數(shù)非線性項(xiàng)Kirchhoff方程多解的存在性
綠盲蝽為害與赤霞珠葡萄防御互作中的表觀響應(yīng)
指數(shù)與對(duì)數(shù)
深刻理解平面直角坐標(biāo)系
指數(shù)與對(duì)數(shù)
鋼結(jié)構(gòu)表觀裂紋監(jiān)測(cè)技術(shù)對(duì)比與展望
上海公路(2019年3期)2019-11-25 07:39:28
例析對(duì)高中表觀遺傳學(xué)的認(rèn)識(shí)
對(duì)數(shù)簡(jiǎn)史
漾濞| 新蔡县| 都安| 玛曲县| 阳新县| 玛纳斯县| 若尔盖县| 无锡市| 稻城县| 壶关县| 连城县| 宣汉县| 渭南市| 哈巴河县| 房产| 富蕴县| 股票| 湟源县| 东兴市| 漳平市| 增城市| 济阳县| 福建省| 滦平县| 平武县| 邹城市| 五原县| 卢氏县| 古交市| 江陵县| 朔州市| 上高县| 丹寨县| 镶黄旗| 罗定市| 宕昌县| 通辽市| 满洲里市| 永泰县| 调兵山市| 金湖县|