国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多尺度建議框的目標(biāo)跟蹤誤差修正方法

2020-10-10 01:00:16張宏偉李曉霞
關(guān)鍵詞:跟蹤器修正濾波

張宏偉,李曉霞,朱 斌,馬 旗

國(guó)防科技大學(xué) 電子對(duì)抗學(xué)院,合肥230037

1 引言

視覺目標(biāo)跟蹤一直是機(jī)器視覺領(lǐng)域的重點(diǎn)問(wèn)題[1-2],其廣泛應(yīng)用于視頻監(jiān)控、智能交通、行為分析等領(lǐng)域。隨著各類無(wú)人機(jī)的廣泛使用,針對(duì)無(wú)人機(jī)航拍圖像的視覺跟蹤在遠(yuǎn)程無(wú)人機(jī)打擊、前視紅外、精確制導(dǎo)等領(lǐng)域得到了越來(lái)越多的應(yīng)用。最近幾年,隨著深度學(xué)習(xí)算法和計(jì)算機(jī)硬件條件的發(fā)展,跟蹤算法都在朝著深度學(xué)習(xí)方向發(fā)展,精度得到了顯著的提升。依據(jù)目標(biāo)的外觀模型描述的不同,目前跟蹤算法通常分為基于產(chǎn)生式(Generative)模型和判別式(Discriminative)模型的方法[3],判別式方法通過(guò)訓(xùn)練分類器來(lái)區(qū)分目標(biāo)和背景,兼顧背景模型用作負(fù)的樣本進(jìn)行訓(xùn)練,因此在處理復(fù)雜的場(chǎng)景時(shí)一般具有更好的魯棒性。

在OTB(Visual Object Tracking)測(cè)試集,上評(píng)分較高的算法實(shí)際應(yīng)用于無(wú)人機(jī)視覺跟蹤時(shí)往往只能短時(shí)間鎖定目標(biāo),其中最主要的挑戰(zhàn)是跟蹤漂移問(wèn)題,原因在于針對(duì)判別式模型只有少量準(zhǔn)確的標(biāo)簽樣本來(lái)訓(xùn)練分類器。由于在跟蹤過(guò)程中,模板跟蹤依賴的是前面序列幀的分類結(jié)果,因此,如果前幾幀的跟蹤沒有正確的框定目標(biāo),這種自我學(xué)習(xí)的方法最終將造成跟蹤漂移,從而致使誤差不斷累積導(dǎo)致跟蹤失敗,如圖1所示。

圖1 無(wú)人機(jī)視覺跟蹤時(shí)跟蹤失敗情況

在低空無(wú)人機(jī)視覺跟蹤中,無(wú)人機(jī)視角轉(zhuǎn)換、目標(biāo)的非平面內(nèi)旋轉(zhuǎn)較頻繁的出現(xiàn),現(xiàn)有算法由于跟蹤漂移問(wèn)題,難以自適應(yīng)調(diào)整目標(biāo)框。判別式模型跟蹤方法都屬于自我學(xué)習(xí)類方法,要克服這類方法的缺陷,需要離線訓(xùn)練模型來(lái)對(duì)跟蹤結(jié)果進(jìn)行修正。本文使用核相關(guān)濾波跟蹤方法作為跟蹤器,用學(xué)習(xí)得到的卷積神經(jīng)網(wǎng)絡(luò)特征代替HOG特征。目標(biāo)跟蹤修正模型采用多尺度建議框回歸的網(wǎng)絡(luò)結(jié)構(gòu),特征提取來(lái)自relu6_2 和relu7 兩個(gè)分支,通過(guò)大量的已標(biāo)注的目標(biāo)樣本離線訓(xùn)練,修正模型學(xué)習(xí)得到的是目標(biāo)級(jí)別信息,通過(guò)置信度評(píng)價(jià)機(jī)制對(duì)相關(guān)濾波跟蹤結(jié)果進(jìn)行分析判斷,及時(shí)修正跟蹤漂移帶來(lái)的誤差,實(shí)驗(yàn)結(jié)果表明了該算法的有效性。

2 相關(guān)工作

最近幾年,深度學(xué)習(xí)在圖像分類、目標(biāo)識(shí)別、顯著性檢測(cè)等計(jì)算機(jī)領(lǐng)域取得了非常大的發(fā)展。對(duì)于視覺跟蹤,基于深度學(xué)習(xí)的方法已經(jīng)超過(guò)傳統(tǒng)的方法逐步成為研究的重點(diǎn)。例如,DLT[4]基于去噪自編碼器通過(guò)離線訓(xùn)練和在線微調(diào)的方式實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤。Zhang 等人[5]提出采用兩層的卷積神經(jīng)網(wǎng)絡(luò),通過(guò)局部特征映射獲取魯棒性全局特征來(lái)提高算法的魯棒性。通過(guò)聯(lián)合多層卷積特征,Wang等人[6]基于全卷積神經(jīng)網(wǎng)絡(luò)提高了跟蹤的準(zhǔn)確性。同樣是多層卷積特征的結(jié)合,Ma等人[7]通過(guò)由粗到精的方式來(lái)挖掘不同深度特征的優(yōu)勢(shì)。MDNet 采用多域卷積網(wǎng)絡(luò)的方式,針對(duì)不同的視頻在線訓(xùn)練新的fc6 層提高了跟蹤精度,但由于需要在線訓(xùn)練影響了跟蹤速度[8]。Learnet[9]是第一個(gè)利用元學(xué)習(xí)方法解決跟蹤任務(wù),利用單個(gè)的樣本來(lái)預(yù)測(cè)網(wǎng)絡(luò)的參數(shù),但該方法的性能比不上基于相關(guān)濾波(Correlation Filter,CF)的最新算法,例如CCOT[10]。

相對(duì)于傳統(tǒng)算法采用人工設(shè)計(jì)的特征,基于深度學(xué)習(xí)的跟蹤算法在成功率和跟蹤精度上占據(jù)明顯的優(yōu)勢(shì),但跟蹤速度還無(wú)法做到實(shí)時(shí)。另外一類判別式跟蹤方法就是相關(guān)濾波算法,利用循環(huán)矩陣的性質(zhì)推導(dǎo)實(shí)現(xiàn)了密集采樣相關(guān)濾波,在跟蹤速度上占據(jù)明顯優(yōu)勢(shì)。MOSSE[11]首先推導(dǎo)了核相關(guān)濾波的閉解形式并用于視覺跟蹤,如果采用單通道灰度圖像速度能達(dá)到600 FPS,CN[12]、CSK[13]、KCF[14]以及COOT 都是后續(xù)在此基礎(chǔ)上提出的改進(jìn)算法,跟蹤速度也達(dá)到了100 FPS。

這兩類算法都有各自的優(yōu)勢(shì),在OTB 測(cè)試集上獲得了較高的評(píng)分,但實(shí)際應(yīng)用于無(wú)人機(jī)視覺跟蹤場(chǎng)景時(shí)普遍存在跟蹤漂移的情況,因此需要對(duì)此進(jìn)行改進(jìn)才能應(yīng)用于長(zhǎng)時(shí)間跟蹤問(wèn)題。在最新的無(wú)人機(jī)跟蹤算法中,文獻(xiàn)[15]采用CSK跟顏色特征相結(jié)合的方法,提高了算法在目標(biāo)運(yùn)動(dòng)速度較快、幅度改變較大時(shí)的適應(yīng)能力,但由于采用手工設(shè)計(jì)的特征,算法的準(zhǔn)確性不高,同時(shí)無(wú)法自適應(yīng)調(diào)整目標(biāo)框。文獻(xiàn)[16]改進(jìn)的基于核相關(guān)濾波器的無(wú)人機(jī)目標(biāo)跟蹤算法,也只是對(duì)尺度估計(jì)進(jìn)行了重新設(shè)計(jì),沒有解決目標(biāo)較大形變時(shí)的跟蹤漂移問(wèn)題。

3 本文算法

圖2 基于修正模型的核相關(guān)濾波跟蹤框架

為了解決無(wú)人機(jī)視覺跟蹤時(shí)的跟蹤漂移問(wèn)題,本文提出了基于多尺度建議框回歸的核相關(guān)濾波跟蹤算法,整個(gè)算法跟蹤框架如圖2 所示。第一部分為孿生卷積神經(jīng)網(wǎng)絡(luò)提取特征,孿生網(wǎng)絡(luò)兩個(gè)分支具有相同的濾波參數(shù),輸入圖像為模板圖像和以上一幀跟蹤結(jié)果為中心的周圍搜索區(qū)域,通過(guò)核相關(guān)濾波得到模板匹配響應(yīng),響應(yīng)圖的中心即為初始估計(jì)位置。第二部分為目標(biāo)跟蹤修正模型,目標(biāo)框回歸訓(xùn)練在不同特征層多尺度建議框上進(jìn)行,在線跟蹤時(shí)能比較好的的修正跟蹤漂移帶來(lái)的誤差。為了提高算法速度,跟蹤框的修正只在發(fā)生漂移時(shí)進(jìn)行,期間設(shè)計(jì)了相關(guān)響應(yīng)置信度自適應(yīng)評(píng)價(jià)機(jī)制對(duì)跟蹤結(jié)果進(jìn)行綜合判斷。得益于目標(biāo)跟蹤修正模型,精修后的跟蹤結(jié)果反過(guò)來(lái)用于跟蹤模塊中模板的更新,避免了核相關(guān)濾波模板的污染。

3.1 基于孿生網(wǎng)絡(luò)的核相關(guān)濾波跟蹤

基于深度學(xué)習(xí)的跟蹤算法在準(zhǔn)確率上有明顯的提高,其中在線更新類需要針對(duì)正、負(fù)樣本在線訓(xùn)練網(wǎng)絡(luò)參數(shù),影響了跟蹤速度,而相關(guān)濾波類算法在速度和精度上均有優(yōu)良的表現(xiàn),因此這里采用核相關(guān)濾波作為跟蹤器。相關(guān)濾波采用孿生卷積神經(jīng)網(wǎng)絡(luò)來(lái)提取目標(biāo)的深度學(xué)習(xí)特征,孿生卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練框架如圖3所示。

圖3 孿生卷積神經(jīng)網(wǎng)絡(luò)提取深度特征

在前向傳播過(guò)程中,網(wǎng)絡(luò)輸入為訓(xùn)練圖像x和測(cè)試圖像z,圖像x為前一幀以目標(biāo)為中心的周圍區(qū)域,圖像z為當(dāng)前幀搜索區(qū)域內(nèi)圖像,分別通過(guò)具有相同結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)fρ提取特征。CF為相關(guān)濾波模塊,通過(guò)在傅里葉域求解脊回歸問(wèn)題獲取訓(xùn)練樣本的特征模板,最后再進(jìn)行互相關(guān)運(yùn)算,響應(yīng)的表達(dá)式為:

為了使相關(guān)響應(yīng)變換到邏輯回歸的值域,增加s、b調(diào)整系數(shù)。在跟蹤的過(guò)程中,每一幀都可以得到一個(gè)跟蹤結(jié)果,獲取一個(gè)新的目標(biāo)模板w,實(shí)際跟蹤時(shí)用于相關(guān)運(yùn)算的模板是通過(guò)與前面所有幀計(jì)算的模板進(jìn)行加權(quán)平均得到,這樣可以自適應(yīng)目標(biāo)外觀的變化。

其中矩陣X∈?d×n每列為取樣向量,y∈?n為目標(biāo)向量,λ為正則化系數(shù)。利用拉格朗日乘子法[17]進(jìn)行求解,首先構(gòu)建拉格朗日表達(dá)式,并令r=XTw-y可以得到:

因?yàn)橄嚓P(guān)濾波操作為矩陣元素點(diǎn)積,因此在跟蹤時(shí)速度非???,通過(guò)相關(guān)濾波網(wǎng)絡(luò)離線訓(xùn)練CNN參數(shù)ρ,同直接采用目標(biāo)檢測(cè)任務(wù)遷移過(guò)來(lái)的網(wǎng)絡(luò)相比較,可以進(jìn)一步提高跟蹤精度。

3.2 基于多尺度建議框的修正模型設(shè)計(jì)

為了解決跟蹤漂移漂移時(shí)跟蹤器無(wú)法自適應(yīng)調(diào)整目標(biāo)框,訓(xùn)練目標(biāo)跟蹤修正模型對(duì)跟蹤結(jié)果進(jìn)行修正。設(shè)目標(biāo)建議框p(px,py,pw,ph)到正確的目標(biāo)框g(gx,gy,gw,gh)的偏差估計(jì)為g?(g?x,g?y,g?w,g?h),修正模型輸入以目標(biāo)為中心的周圍區(qū)域,經(jīng)過(guò)網(wǎng)絡(luò)前端的特征提取之后,訓(xùn)練得到目標(biāo)特征到偏差的映射關(guān)系。由于CNN具有尺度不變性,因此偏差的計(jì)算一般采用平移+尺度縮放的形式,即:

當(dāng)輸入的建議框與目標(biāo)框相差較小時(shí)(參考RCNN設(shè)置為IOU>0.6),才能認(rèn)為這種變換是一種線性變換,那么可以用線性回歸來(lái)建模對(duì)窗口進(jìn)行微調(diào),否則會(huì)導(dǎo)致訓(xùn)練的修正模型不收斂。

為了讓建議框更加接近目標(biāo)框,這里選擇在多層特征圖的每個(gè)點(diǎn)選取不同比例的預(yù)選框,如圖4 所示,在特征圖的每個(gè)位置設(shè)定固定的多個(gè)不同尺度建議框,當(dāng)其中一個(gè)建議框與目標(biāo)框差別較小時(shí),訓(xùn)練時(shí)就能擬合偏差的線性關(guān)系。建議框的使用能讓目標(biāo)函數(shù)更容易收斂,降低訓(xùn)練難度,并能對(duì)應(yīng)目標(biāo)大小到不同的特征層。CNNbase采用VGG網(wǎng)絡(luò)第5卷積層前面的相關(guān)層,回歸模塊包括建議框提取、置信度計(jì)算、目標(biāo)框回歸3個(gè)分支,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)如圖5所示。

圖4 多尺度建議框選取示意圖

目標(biāo)跟蹤修正模型采用離線訓(xùn)練的形式,以避免在線跟蹤再訓(xùn)練降低跟蹤速度。

3.3 置信度評(píng)價(jià)機(jī)制和模板更新策略

通過(guò)前面的相關(guān)濾波網(wǎng)絡(luò)和回歸網(wǎng)絡(luò)可以得到目標(biāo)的兩方面的信息,一是跟蹤器根據(jù)前面幀的跟蹤結(jié)果學(xué)習(xí)得到的目標(biāo)外觀模型w,可以預(yù)測(cè)它在下一幀的尺度和位置,但這樣難以避免誤差累積問(wèn)題,而且一旦物體在圖像中消失,跟蹤就會(huì)失效,即使物體再出現(xiàn)也無(wú)法重新跟蹤;二是修正模型離線訓(xùn)練得到的物體類級(jí)別的信息和特征到邊框預(yù)測(cè)的映射關(guān)系,但也存在訓(xùn)練樣本不足或者多目標(biāo)干擾無(wú)法檢測(cè)到目標(biāo)的情況。為了綜合運(yùn)用這兩方面的信息,需要對(duì)跟蹤結(jié)果的可靠性進(jìn)行評(píng)價(jià),以便于及時(shí)停止用錯(cuò)誤的結(jié)果對(duì)相關(guān)濾波模板進(jìn)行更新。

在跟蹤漂移出現(xiàn)的時(shí)候,往往伴隨著相關(guān)濾波響應(yīng)峰值的逐漸降低,這里用峰值旁瓣比(Peak Sidelobe Ratio,PSR)來(lái)定量描述相關(guān)響應(yīng)峰的尖銳程度:

其中η為目標(biāo)模板學(xué)習(xí)系數(shù)。通過(guò)引入目標(biāo)跟蹤修正模型,可以充分利用離線訓(xùn)練樣本獲取的先驗(yàn)知識(shí),克服在線跟蹤訓(xùn)練樣本不足的缺陷,用準(zhǔn)確位置對(duì)相關(guān)濾波模板進(jìn)行更新,防止錯(cuò)誤樣本對(duì)跟蹤器造成污染。融合相關(guān)濾波響應(yīng)f(i)r和修正模型輸出的目標(biāo)置信圖f(i)c是為了尋找數(shù)據(jù)在空間上的結(jié)構(gòu)性,把跟蹤器產(chǎn)生的結(jié)果和修正模型檢測(cè)的正樣本進(jìn)行比較,選擇出一個(gè)最可信的位置,保證物體最多只出現(xiàn)在一個(gè)位置上。

圖5 回歸網(wǎng)絡(luò)結(jié)構(gòu)示意圖

以圖6 的例子為例分析綜合利用相關(guān)濾波跟蹤和修正模型各自優(yōu)點(diǎn)的好處,列表中第2 行為t時(shí)刻初始化框,第3 行中黃色框是t+1 時(shí)刻跟蹤器產(chǎn)生的正樣本,藍(lán)色框是修正模型得到的正樣本,紅星標(biāo)記的是綜合判斷之后的最后結(jié)果,4 行和5 行分別為相關(guān)濾波響應(yīng)和修正模型得到的目標(biāo)置信度。序列1 中汽車在轉(zhuǎn)彎時(shí)跟蹤器不能準(zhǔn)確框定目標(biāo),置信度小于閾值,此時(shí)引入修正模型對(duì)跟蹤器結(jié)果進(jìn)行修正,防止跟蹤漂移。序列2 中修正模型錯(cuò)誤的認(rèn)為上面一輛車的樣本更可信,跟蹤器通過(guò)前面序列幀學(xué)習(xí)得到的表觀模型選擇了置信度排序第2的下方一輛車,通過(guò)綜合利用了離線訓(xùn)練獲得的先驗(yàn)知識(shí)和在線跟蹤特定目標(biāo)的表觀模型,最后仍然可以追蹤到正確的目標(biāo)。

images/BZ_141_328_1287_998_2048.png

4 實(shí)驗(yàn)結(jié)果及分析

4.1 網(wǎng)絡(luò)訓(xùn)練

相關(guān)濾波網(wǎng)絡(luò)特征提取層的訓(xùn)練數(shù)據(jù)來(lái)自ImageNet 視頻數(shù)據(jù)集ILSVRC VID2015,輸入圖片為同個(gè)視頻中時(shí)間間隔為T的兩幀圖像,以目標(biāo)為中心裁剪周圍區(qū)域。使用大小為32的批量處理計(jì)算每次迭代的梯度,學(xué)習(xí)速率從102到105依次遞減。

修正模型首先在VOC2007 和VOC2010 數(shù)據(jù)集上訓(xùn)練學(xué)習(xí)得到卷積特征層的通用表達(dá)。對(duì)于每張圖像取目標(biāo)周圍區(qū)域3倍目標(biāo)框尺寸的范圍,圖片輸入大小為300×300像素。采用SGD梯度下降算法,動(dòng)量取0.9,權(quán)值衰減 γ 取0.000 5,學(xué)習(xí)率為105。在VOC 數(shù)據(jù)上訓(xùn)練將損失降到一定程度之后,再針對(duì)特定目標(biāo)在無(wú)人機(jī)數(shù)據(jù)集VisDrone 上接著訓(xùn)練。VisDrone 中訓(xùn)練集含56個(gè)序列,共計(jì)24 201 幀圖像,驗(yàn)證集含7 個(gè)序列,共計(jì)2 819 幀圖像。模型總共訓(xùn)練了24 代,迭代過(guò)程中的損失函數(shù)變化如圖7所示。

圖7 修正模型訓(xùn)練時(shí)的損失函數(shù)變化

4.2 測(cè)試及結(jié)果分析

為了對(duì)算法效果進(jìn)行評(píng)價(jià),采用VisDrone、UAV123和DTB這3種專用的無(wú)人機(jī)跟蹤數(shù)據(jù)集進(jìn)行測(cè)試,測(cè)試環(huán)境為:CPU為Intel I5-7300HQ,4核2.50 GHz,GPU為NVIDIA GeForce GTX 1060 MaxQ。在使用GPU 的情況下,文本算法的運(yùn)行速度大約為34.7 FPS。

評(píng)價(jià)采用OTB-100 標(biāo)準(zhǔn)中的中心定位誤差和邊框重合率兩種評(píng)價(jià)指標(biāo),采用OPE(One Pass Evaluation)測(cè)試方法,將本文算法與目前較好的9 種算法ECO、Staple、CFNet、SRDCF、DSST、SiamFC、Goturn、KCF、CN進(jìn)行了比較。

圖8為成功率曲線測(cè)試圖,其表征的是估計(jì)目標(biāo)矩形框與真實(shí)目標(biāo)矩形框的重疊率的大小,即兩矩形框的相交部分面積除以兩矩形框的相并部分的面積。其橫坐標(biāo)是從0 到1 的連續(xù)閾值,縱坐標(biāo)是重疊率大于該閾值的所有幀占該序列總幀的百分比,使用曲線下方的面積來(lái)表示評(píng)價(jià)得分。圖9是精度曲線圖測(cè)試,其衡量的是估計(jì)目標(biāo)中心與真實(shí)目標(biāo)中心的歐式距離誤差大小,其橫坐標(biāo)是一系列不同的距離閾值大?。ㄏ袼貑挝唬?,縱坐標(biāo)是估計(jì)目標(biāo)中心位置的誤差距離小于該閾值的所有幀占該序列總幀的百分比,其中采用閾值為11 像素所對(duì)應(yīng)的百分比為評(píng)價(jià)得分。

圖8 航拍視頻成功率曲線測(cè)試

圖9 航拍視頻精度曲線測(cè)試

可以看到針對(duì)無(wú)人機(jī)平臺(tái)視覺目標(biāo)跟蹤,本文算法在成功率和精度要優(yōu)于其他幾類算法,特別是較小重疊率情況下。從成功率曲線可以看到,本文算法比排第二的ECO提高了14.3%,效果比較明顯。對(duì)于精度曲線中心距離差小于11像素的占比為0.635,比SiamFC提高了3.1%(0.616),跟蹤精度的提高主要得益于算法中修正模型對(duì)相關(guān)濾波跟蹤結(jié)果的修正,克服了相關(guān)濾波長(zhǎng)時(shí)間跟蹤時(shí)容易產(chǎn)生跟蹤漂移的缺點(diǎn)。

如圖10 為10 種算法對(duì)視頻序列跟蹤的定性分析,由于篇幅原因列出了其中差別較大的4個(gè)序列。例如,序列UAV123-Car1 汽車轉(zhuǎn)彎、序列UAV123-Boat3 船大尺度的變形情況時(shí),其他幾種算法只學(xué)習(xí)到前面序列幀目標(biāo)出現(xiàn)過(guò)的形態(tài),當(dāng)形態(tài)發(fā)生劇烈變化,跟蹤框不能及時(shí)的調(diào)整,而本文算法因?yàn)樵陔x線階段目標(biāo)跟蹤修正模型學(xué)習(xí)到目標(biāo)的先驗(yàn)知識(shí),所以在線跟蹤時(shí)能及時(shí)對(duì)目標(biāo)框進(jìn)行修正,防止跟蹤器目標(biāo)模板被污染。序列visDrone-Person1中跟蹤目標(biāo)人在跟蹤的過(guò)程中有大量遮擋,并且不時(shí)有旁邊相似物體的干擾,本文算法都有好的表現(xiàn),目標(biāo)框能緊隨目標(biāo)形態(tài)的改變而改變。序列visDrone-Sheep2為成小目標(biāo)形態(tài)的羊,在前面序列幀都能框定目標(biāo),在700幀的時(shí)候,相機(jī)有大幅度的晃動(dòng),因此所有算法都跟丟了目標(biāo)。

同時(shí),本文算法也存在跟蹤失敗的情況,如圖11所示。在對(duì)DTB-Animal3序列羊的跟蹤過(guò)程中,另一只羊從前面交叉通過(guò),目標(biāo)框最終漂移到了羊的頭部,主要是因?yàn)槟繕?biāo)跟蹤修正模型錯(cuò)誤的將兩只羊當(dāng)成了一個(gè)目標(biāo)。DTB-ChasingDrones序列和UAV123-Car7序列存在目標(biāo)跟丟的情況,出現(xiàn)在無(wú)人機(jī)速度太快導(dǎo)致視野晃動(dòng)、汽車被遮擋的時(shí)候,本文算法因?yàn)樗阉饔虮容^小,還不能應(yīng)對(duì)大范圍搜索跟蹤的情況,這同時(shí)也是另外幾種跟蹤算法普遍存在問(wèn)題,是下一步需要進(jìn)一步解決的問(wèn)題。

圖11 跟蹤失敗的情況

圖10 部分無(wú)人機(jī)視頻序列中的跟蹤結(jié)果

5 總結(jié)

目前基于深度學(xué)習(xí)的目標(biāo)跟蹤方法跟蹤精度上有顯著的提升,在OTB等常規(guī)測(cè)試集上有明顯的優(yōu)勢(shì),但實(shí)際應(yīng)用于低空無(wú)人機(jī)平臺(tái)目標(biāo)跟蹤時(shí),存在嚴(yán)重的跟蹤漂移情況,主要是由于模板跟蹤依賴的是前面序列幀的分類結(jié)果,當(dāng)目標(biāo)外觀改變?cè)斐赡0逦廴局?,很難重新框定目標(biāo)。針對(duì)該問(wèn)題,本文提出了一種基于目標(biāo)跟蹤修正模型的相關(guān)濾波跟蹤算法,利用相關(guān)濾波來(lái)對(duì)目標(biāo)的位置和尺度進(jìn)行初始估計(jì),針對(duì)特定的目標(biāo),修正模型離線訓(xùn)練得到目標(biāo)級(jí)別信息,在線跟蹤時(shí)對(duì)相關(guān)濾波跟蹤結(jié)果進(jìn)行精修成功的避免了誤差累積的擴(kuò)大。在UAV123、VisDrone、DTB無(wú)人機(jī)航拍數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)結(jié)果表明,本文算法能較好地克服跟蹤時(shí)跟蹤漂移問(wèn)題,跟蹤精度和成功率要優(yōu)于其他幾種算法。該跟蹤框架還存在同類相似目標(biāo)干擾、長(zhǎng)時(shí)間跟蹤的問(wèn)題,需要下步更進(jìn)一步改進(jìn)。

猜你喜歡
跟蹤器修正濾波
光伏跟蹤器陣列跟蹤精度的測(cè)算方法研究
Some new thoughts of definitions of terms of sedimentary facies: Based on Miall's paper(1985)
修正這一天
淺析一種風(fēng)光儲(chǔ)一體化跟蹤器
合同解釋、合同補(bǔ)充與合同修正
法律方法(2019年4期)2019-11-16 01:07:28
超長(zhǎng)待機(jī)的自行車位置跟蹤器
雙向多軌跡判定方法在目標(biāo)跟蹤中的應(yīng)用研究
軟件修正
RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
基于線性正則變換的 LMS 自適應(yīng)濾波
施甸县| 威海市| 垦利县| 金湖县| 龙陵县| 平果县| 新闻| 宝兴县| 岱山县| 志丹县| 鸡西市| 南郑县| 奉化市| 云霄县| 平顶山市| 富顺县| 延庆县| 河北省| 襄垣县| 辽阳县| 金坛市| 缙云县| 勃利县| 佳木斯市| 集贤县| 安塞县| 新邵县| 宜黄县| 泽普县| 云阳县| 嘉兴市| 内江市| 徐水县| 定安县| 昭苏县| 肥东县| 牟定县| 广西| 阿勒泰市| 宝应县| 新乐市|