国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合多尺度和深度特征的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤

2024-01-18 01:09:34
探測與控制學(xué)報(bào) 2023年6期
關(guān)鍵詞:分類器尺度濾波

張 博

(長沙師范學(xué)院信息科學(xué)與工程學(xué)院,湖南 長沙 410100)

0 引言

視覺目標(biāo)跟蹤作為計(jì)算機(jī)視覺的核心技術(shù),以圖像傳感器為核心,通過對(duì)視頻信號(hào)的分析與理解,實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤,從而獲得相應(yīng)的運(yùn)動(dòng)軌跡,即在確定了第一個(gè)畫面的位置之后,通過相應(yīng)的運(yùn)算,可以得到下一個(gè)畫面的對(duì)應(yīng)位置[1-3]。當(dāng)物體在移動(dòng)時(shí),背景和物體都會(huì)發(fā)生變化,包括形狀、背景、光線、尺寸等,而這些變化會(huì)導(dǎo)致跟蹤結(jié)果的變化。隨著計(jì)算機(jī)視覺技術(shù)的日益普及,尤其是在高速運(yùn)動(dòng)的環(huán)境中,人們?cè)絹碓蕉嗟仃P(guān)注視覺對(duì)象的跟蹤,因此進(jìn)一步研究運(yùn)動(dòng)視覺目標(biāo)跟蹤算法顯得尤為重要[4-5]。

相關(guān)領(lǐng)域?qū)W者針對(duì)運(yùn)動(dòng)視覺目標(biāo)跟蹤進(jìn)行了研究。文獻(xiàn)[6]提出了基于多階段自適應(yīng)網(wǎng)絡(luò)學(xué)習(xí)元對(duì)抗特征的魯棒視覺目標(biāo)跟蹤算法:利用元學(xué)習(xí)增強(qiáng)了新跟蹤序列的泛化能力;設(shè)計(jì)對(duì)抗性注意掩碼模塊和多層次多尺度元分類器模塊;通過位置自適應(yīng)子網(wǎng)絡(luò)細(xì)化跟蹤位置,實(shí)現(xiàn)視覺目標(biāo)跟蹤。但該方法未在提取圖像特征過程中有效濾除環(huán)境干擾,目標(biāo)跟蹤精度較低。文獻(xiàn)[7]提出了基于量化遺傳重采樣粒子濾波的地面運(yùn)動(dòng)目標(biāo)跟蹤算法:采用粒子濾波估計(jì)狀態(tài),基于量化測量的狀態(tài)后驗(yàn)結(jié)果對(duì)一組加權(quán)粒子更新;融合Gen-z變換和蒙特卡羅法,計(jì)算似然函數(shù)數(shù)值;將量化遺傳重采樣方法集成到粒子濾波方法中,完成地面運(yùn)動(dòng)目標(biāo)跟蹤。但這種方法未對(duì)運(yùn)動(dòng)目標(biāo)的深度特征進(jìn)行融合,在目標(biāo)遮擋時(shí)無法有效跟蹤識(shí)別。文獻(xiàn)[8]提出了基于視覺的無人機(jī)地面運(yùn)動(dòng)目標(biāo)跟蹤方法:基于視覺的估計(jì)和制導(dǎo)方法,使無人機(jī)圍繞運(yùn)動(dòng)目標(biāo)飛行圓形軌道;使用卡爾曼濾波器設(shè)計(jì)來估計(jì)目標(biāo)運(yùn)動(dòng),將機(jī)載GPS和慣性傳感器與從視覺系統(tǒng)獲得的目標(biāo)指向向量相結(jié)合,實(shí)現(xiàn)了運(yùn)動(dòng)目標(biāo)視覺跟蹤。但這種方法未在目標(biāo)視覺跟蹤前濾除環(huán)境干擾,存在后續(xù)視覺跟蹤魯棒性較差的問題。文獻(xiàn)[9]提出了基于視覺信息和激光模塊的無人機(jī)目標(biāo)跟蹤方法:利用深度神經(jīng)網(wǎng)絡(luò)和核相關(guān)濾波器,實(shí)現(xiàn)了基于視覺的像素坐標(biāo)系中的目標(biāo)識(shí)別和定位;通過結(jié)合激光測距信息和基于圖像的距離估計(jì)算法,估計(jì)無人機(jī)與目標(biāo)之間的距離,實(shí)現(xiàn)無人機(jī)目標(biāo)跟蹤。然而,該方法所用的核相關(guān)濾波器無法適應(yīng)視覺目標(biāo)的多尺度變化,在視覺目標(biāo)被遮擋時(shí)無法精確跟蹤識(shí)別。文獻(xiàn)[10]提出了基于ROS的四足機(jī)器人視覺跟蹤方法:在ROS上開發(fā)了一個(gè)測試平臺(tái),機(jī)載相機(jī)從中生成圖像幀序列;采用圖像處理算法,對(duì)圖像模糊和其他背景噪聲進(jìn)行處理;坐標(biāo)恢復(fù)將原始目標(biāo)軌跡恢復(fù)為跟蹤器在真實(shí)世界中的期望路徑;目標(biāo)跟蹤控制律沿著期望的軌跡逐點(diǎn)移動(dòng)跟蹤器,實(shí)現(xiàn)在真實(shí)場景中視覺目標(biāo)跟蹤。該方法對(duì)圖像模糊和其他背景噪聲進(jìn)行處理時(shí)未保留關(guān)鍵特征,在運(yùn)動(dòng)目標(biāo)模糊時(shí)難以提取其特征,無法及時(shí)跟蹤目標(biāo)。文獻(xiàn)[11]提出了基于視覺的VTOL無人機(jī)魯棒跟蹤控制算法:考慮到不同的視覺特征集,提出了兩種控制方案,用于在存在外部干擾的情況下實(shí)現(xiàn)基于視覺特征的運(yùn)動(dòng)目標(biāo)跟蹤。該方法沒有融合使用兩種控制方案,協(xié)調(diào)性較差,導(dǎo)致跟蹤效率較低。文獻(xiàn)[12]研究了基于視覺DSP的運(yùn)動(dòng)目標(biāo)跟蹤方法。評(píng)估硬件優(yōu)化方法的結(jié)果,基于視覺DSP技術(shù)中的KCF跟蹤算法來優(yōu)化實(shí)時(shí)跟蹤性能;檢查并分析了跟蹤系統(tǒng)的影響因素,包括DP,IP以及DSP內(nèi)核和IDMA;利用分時(shí)策略來提高系統(tǒng)運(yùn)行速度,實(shí)現(xiàn)視覺目標(biāo)快速跟蹤。這種研究方法未對(duì)環(huán)境噪聲干擾進(jìn)行濾除,受到干擾后無法準(zhǔn)確跟蹤運(yùn)動(dòng)目標(biāo)。

上述方法在實(shí)際應(yīng)用中受到環(huán)境干擾、運(yùn)動(dòng)目標(biāo)模糊、視覺目標(biāo)被遮擋等因素的影響,存在目標(biāo)跟蹤精度和效率低、魯棒性弱的問題。針對(duì)上述問題,提出了融合多尺度核相關(guān)濾波和深度特征匹配模型的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤算法。

1 基于多尺度的視覺特征提取

為了降低環(huán)境噪聲對(duì)目標(biāo)圖像數(shù)據(jù)的干擾,采用核相關(guān)濾波跟蹤算法濾除干擾,同時(shí)提取快速運(yùn)動(dòng)視覺目標(biāo)特征;傳統(tǒng)的核相關(guān)濾波跟蹤算法包括三個(gè)階段:分類器訓(xùn)練、候選區(qū)域檢測和模型更新[13-15]。但在快速運(yùn)動(dòng)視覺目標(biāo)實(shí)際跟蹤過程中,由于傳輸延時(shí),運(yùn)動(dòng)視覺目標(biāo)的尺度發(fā)生變化后,部分特征信息容易丟失,不利于后續(xù)快速運(yùn)動(dòng)視覺目標(biāo)準(zhǔn)確跟蹤[16]。對(duì)此,提出了基于多尺度核相關(guān)濾波的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤。首先,采用常規(guī)的三個(gè)步驟檢測快速運(yùn)動(dòng)視覺目標(biāo)位置跟蹤;然后,采用更新的多尺度核相關(guān)濾波進(jìn)行運(yùn)動(dòng)視覺目標(biāo)跟蹤。利用雙線性插值函數(shù)將子圖轉(zhuǎn)化為多尺度大小,并進(jìn)行特征提取;最后,利用多尺度更新策略對(duì)核相關(guān)濾波跟蹤算法進(jìn)行優(yōu)化,在濾除干擾的同時(shí)保留目標(biāo)的多尺度特征。

1.1 分類器訓(xùn)練

分辨目標(biāo)和背景是快速運(yùn)動(dòng)視覺目標(biāo)跟蹤算法的核心。對(duì)于n個(gè)數(shù)據(jù)集(zi,xi),i∈1,2,…,n,設(shè)計(jì)一個(gè)魯棒分類器:

y=min‖zi-xi‖2,

(1)

式(1)中,zi為訓(xùn)練樣本,xi為該樣本的標(biāo)簽值。在核相關(guān)濾波目標(biāo)跟蹤算法中,以快速運(yùn)動(dòng)視覺目標(biāo)位置為中心,通過循環(huán)矩陣采樣得到所有的訓(xùn)練樣本。該方法利用非線性映射函數(shù)α(X),將采樣訓(xùn)練數(shù)據(jù)zi映射在線性可分高維空間域內(nèi),映射過程表示為

(2)

(3)

利用嶺回歸函數(shù)重建分類器,式(3)的對(duì)偶形式用β表示為

(4)

式(4)的閉式解為

β*=(α(X)α(X)T+β)-1y。

(5)

通過核函數(shù)K=α(X)α(X)T求解得

β*=(K+β)-1y。

(6)

將K對(duì)角化處理為循環(huán)矩陣K′,則式(6)轉(zhuǎn)換為

β′=diag(K′+β)-1y,

(7)

則分類器模型的濾波頻域?yàn)?/p>

(8)

故分類器經(jīng)過訓(xùn)練更新表示為

(9)

由此完成分類器訓(xùn)練,為后續(xù)樣本特征提取提供模型基礎(chǔ)。

1.2 候選區(qū)域檢測

從搜索區(qū)域中采集多個(gè)候選樣本是快速運(yùn)動(dòng)視覺目標(biāo)位置特征檢測中十分重要的步驟。通過循環(huán)矩陣采集樣本,將不同的樣本輸入1.1節(jié)更新的分類器做相關(guān)運(yùn)算,得到各自對(duì)應(yīng)的響應(yīng)值。判定置信度響應(yīng)值最大的樣本即為快速運(yùn)動(dòng)視覺目標(biāo)樣本,進(jìn)而確定快速運(yùn)動(dòng)視覺目標(biāo)所在位置。

將分類器中循環(huán)矩陣K′定義為核空間中的訓(xùn)練和待檢測樣本的核矩陣為

K′=α(z)Tα(X)。

(10)

待檢測樣本的響應(yīng)度為

(11)

響應(yīng)度最大的位置即可判定為快速運(yùn)動(dòng)視覺目標(biāo)位置。在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤過程中,處理每一幀圖像時(shí),快速運(yùn)動(dòng)視覺目標(biāo)的位移Y=f(c;v)由f(b;v)=argmaxF(b,m;v)計(jì)算獲得,這里的c是上一幀圖像中快速運(yùn)動(dòng)視覺目標(biāo)的中心位置區(qū)域。置信度響應(yīng)圖為

F(c,m;v)=F-1K′。

(12)

一般采用響應(yīng)圖中最高峰的位置判定為快速運(yùn)動(dòng)視覺目標(biāo)的新位置,也稱為單峰檢測。對(duì)于式(12)中的單峰響應(yīng)圖F(c,m;v),其他峰值為

Q(c)=F(c,m;v)?W,

(13)

式(13)中,W與F(c,m;v)是相同大小的二值矩陣,它標(biāo)識(shí)了F(c,m;v)中局部極值的位置。由此完成快速運(yùn)動(dòng)視覺目標(biāo)位置檢測,作為視覺目標(biāo)跟蹤的關(guān)鍵尺度特征。

1.3 模型更新

在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤過程中,當(dāng)快速運(yùn)動(dòng)視覺目標(biāo)被遮擋、外界光照變化或者由于自身原因發(fā)生形變,若一直采用一個(gè)模型很容易檢測到錯(cuò)誤的快速運(yùn)動(dòng)視覺目標(biāo)上,進(jìn)而丟失目標(biāo)。因此能夠?qū)崟r(shí)地進(jìn)行模型更新十分必要,這樣才能準(zhǔn)確地應(yīng)對(duì)復(fù)雜環(huán)境的變化,以濾除圖像中與目標(biāo)無關(guān)的頻域。核相關(guān)濾波器跟蹤算法常用的模型更新方法是內(nèi)插法,基于內(nèi)插法的分類器模型更新頻域表示為

(14)

式(14)中,χ是更新系數(shù),決定了上一幀快速運(yùn)動(dòng)視覺目標(biāo)信息和當(dāng)前幀快速運(yùn)動(dòng)視覺目標(biāo)信息在跟蹤模型中所占的權(quán)重大小。由此完成分類器模型的更新,結(jié)合快速運(yùn)動(dòng)視覺目標(biāo)位置檢測結(jié)果,完成基于核相關(guān)濾波跟蹤算法的快速運(yùn)動(dòng)視覺跟蹤目標(biāo)特征提取。

1.4 多尺度更新策略

在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤過程中,如果一直不改變跟蹤框的大小,在快速運(yùn)動(dòng)視覺目標(biāo)的尺度發(fā)生變化后,就會(huì)只能夠提取快速運(yùn)動(dòng)視覺目標(biāo)一部分信息,導(dǎo)致特征信息丟失,不利于快速運(yùn)動(dòng)視覺目標(biāo)跟蹤[17-18]。對(duì)此,采用更新的多尺度核相關(guān)濾波進(jìn)行快速運(yùn)動(dòng)視覺目標(biāo)跟蹤。在1.2節(jié)檢測到的快速運(yùn)動(dòng)視覺目標(biāo)位置處,采集快速運(yùn)動(dòng)視覺目標(biāo)多尺度的子圖;利用雙線性插值函數(shù)將子圖轉(zhuǎn)化為多尺度大小,在每個(gè)子圖進(jìn)行特征提取后,對(duì)多尺度核相關(guān)濾波器進(jìn)行訓(xùn)練。

若上一幀圖像的多尺度為Ec,多尺度金字塔為R層,快速運(yùn)動(dòng)視覺目標(biāo)候選多尺度參數(shù)是{δj·Ec|j=-(R-1)/2,…,(R-1)/2},δj為多尺度變化因子,對(duì)每個(gè)候選區(qū)域多尺度變換后,將1.2節(jié)提取峰值特征Q(c)一維量化為S(Q(c))=[z1,z2,…,zc],再經(jīng)Hanning窗口t個(gè)尺度處理,獲得訓(xùn)練樣本zt=[zt1,zt2,…,ztc]。

(15)

用雙線性插值函數(shù)fs(zt)=[fs(1),fs(2),…,fs(R-1)],對(duì)快速運(yùn)動(dòng)視覺目標(biāo)的候選區(qū)域進(jìn)行連續(xù)多尺度采樣,ε∈[0,R)是連續(xù)多尺度參數(shù),f(ε)是連續(xù)反應(yīng)可信度,那么f(ε)可以用fs(zt)進(jìn)行插值操作來獲得:

(16)

多尺度核相關(guān)濾波器的多尺度參數(shù)εo可表示為

(17)

2 融合深度特征的目標(biāo)跟蹤優(yōu)化

上述基于多尺度核相關(guān)濾波完成了快速運(yùn)動(dòng)視覺目標(biāo)跟蹤特征提取。為了提高高速運(yùn)動(dòng)視覺目標(biāo)在被嚴(yán)重遮擋或目標(biāo)模糊等情況下的跟蹤效果,在多尺度核相關(guān)濾波目標(biāo)跟蹤[19-20]的基礎(chǔ)上,實(shí)現(xiàn)快速運(yùn)動(dòng)視覺目標(biāo)跟蹤優(yōu)化。首先,通過貪婪算法對(duì)視覺特征重構(gòu),獲得深度特征,基于置信度將HOG特征與深度特征進(jìn)行匹配融合;其次,利用SURF算法對(duì)視覺目標(biāo)位置單峰響應(yīng)圖進(jìn)行校正;最后,采用密集采樣跟蹤閾值更新策略,優(yōu)化追蹤結(jié)果更新效率,完成快速運(yùn)動(dòng)視覺目標(biāo)跟蹤。

2.1 基于置信度的深度特征匹配

由于1.2節(jié)提取的特征在復(fù)雜背景環(huán)境中表達(dá)能力有限,目標(biāo)跟蹤存在著很大的困難。因此本文堆疊多層自編碼器得到深層神經(jīng)網(wǎng)絡(luò),再通過貪婪算法對(duì)1.4節(jié)輸入特征εo重構(gòu),得到深度特征pdeep(εo)。為增強(qiáng)該算法的魯棒性,算法融合了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到的深度特征與跟蹤快速運(yùn)動(dòng)視覺目標(biāo)的方向梯度直方圖HOG特征。在深度神經(jīng)網(wǎng)絡(luò)中添加了快速運(yùn)動(dòng)視覺的初值和隨后的幀間估計(jì)快速運(yùn)動(dòng)視覺目標(biāo)HOG特征。將HOG特征與深度特征通過式(18)匹配融合作為訓(xùn)練樣本:

U=φi-1(φ1phog+φ2pdeep(εo)),

(18)

式(18)中,φ1和φ2表示兩個(gè)特征的融合系數(shù),φi-1表示第i-1幀圖像的跟蹤結(jié)果的置信度,phog代表1×65維的HOG特征,U代表融合特征。由此完成了目標(biāo)跟蹤特征優(yōu)化。

表1 仿真實(shí)驗(yàn)參數(shù)設(shè)置Tab.1 Parameter settings for simulation experiments

2.2 基于改進(jìn)SURF的目標(biāo)重定位

快速運(yùn)動(dòng)視覺目標(biāo)遮擋是跟蹤領(lǐng)域的諸多挑戰(zhàn)之一。遮擋的隨機(jī)性與未知性導(dǎo)致視覺跟蹤過程中樣本錯(cuò)誤更新,誤差累積后造成跟蹤失敗。針對(duì)這種情況,提出一種基于Krawtchouk矩的SURF算法,該算法在求解結(jié)果小于搜索域更新閾值時(shí),利用SURF算法對(duì)獲得的快速運(yùn)動(dòng)視覺目標(biāo)位置單峰響應(yīng)圖F(c,m;v)進(jìn)行校正,從而提高了算法的準(zhǔn)確度。

改進(jìn)SURF算法使用γ階Krawtchouk多項(xiàng)式,歸一化Krawtchouk多項(xiàng)式為

(19)

由此完成目標(biāo)位置檢測優(yōu)化。

2.3 快速運(yùn)動(dòng)視覺目標(biāo)跟蹤算法

為提高算法的跟蹤效率,采用密集采樣跟蹤策略,對(duì)快速運(yùn)動(dòng)視覺目標(biāo)候選區(qū)域的更新閾值進(jìn)行確定,完成追蹤結(jié)果更新效率優(yōu)化。

采用一種基于預(yù)定義的閾值更新策略,以減少噪聲對(duì)模型更新效率的影響。如果快速運(yùn)動(dòng)的視覺目標(biāo)位置不在原來的搜索范圍內(nèi),那么為了提高算法的精度,必須適當(dāng)?shù)卦龃笏阉髅娣e,擴(kuò)展搜索范圍的前提是

max(φi)<κ1,

(20)

式(20)中,κ1是搜索范圍更新閾值。

當(dāng)式(20)成立,則擴(kuò)大搜索區(qū)域。同時(shí),快速運(yùn)動(dòng)視覺目標(biāo)在跟蹤過程中,會(huì)受到快速形變、運(yùn)動(dòng)模糊、背景改變等因素的影響,從而導(dǎo)致快速運(yùn)動(dòng)視覺目標(biāo)模型閾值更新速度降低,需要學(xué)習(xí)快速地更新目標(biāo)追蹤網(wǎng)絡(luò)。滿足式(21)時(shí)更新網(wǎng)絡(luò):

max(φi)<κ2,

(21)

式(21)中,κ2為網(wǎng)絡(luò)更新閾值。

基于上述搜索范圍更新閾值和網(wǎng)絡(luò)更新閾值,對(duì)時(shí)間滑動(dòng)窗的幀進(jìn)行實(shí)時(shí)更新,并將當(dāng)前幀的負(fù)樣本、初始幀的正樣本、時(shí)間滑動(dòng)窗和相應(yīng)的HOG特征作為輸入,對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行了實(shí)時(shí)的更新。如果式(20)和式(21)成立,那么結(jié)合i-2幀跟蹤結(jié)果,對(duì)第i幀快速運(yùn)動(dòng)視覺目標(biāo)特征點(diǎn)進(jìn)行計(jì)算。再根據(jù)式(18),對(duì)改進(jìn)SURF算法與網(wǎng)絡(luò)更新后的特征點(diǎn)的整體位置進(jìn)行融合,輸入到分類器中,得到快速運(yùn)動(dòng)視覺目標(biāo)位置計(jì)算公式為

(22)

通過上述步驟,實(shí)現(xiàn)融合多尺度核相關(guān)濾波和深度特征匹配模型的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤。

3 仿真實(shí)驗(yàn)與分析

3.1 設(shè)置仿真實(shí)驗(yàn)環(huán)境

為了驗(yàn)證融合多尺度核相關(guān)濾波和深度特征匹配模型的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤算法的有效性,本文使用OTB數(shù)據(jù)集進(jìn)行了全面的實(shí)驗(yàn)評(píng)估。在i7-8700K 3.70 GHz處理器和GTX-1081TI GPU的計(jì)算機(jī)平臺(tái)上測試算法性能。在Matlab配套神經(jīng)網(wǎng)絡(luò)工具箱Neural Network Toolbox中的Tensorflow深度學(xué)習(xí)框架上使用Python編程語言進(jìn)行跟蹤算法的訓(xùn)練和測試。設(shè)置仿真實(shí)驗(yàn)參數(shù)如表1所示。

實(shí)驗(yàn)數(shù)據(jù)來源于Ladybug3多目全景視覺系統(tǒng)中的一段視頻序列,視頻的幀大小為938像素×559像素,數(shù)據(jù)采樣截圖頻率為10幀/s,共截圖500張圖像,其中200張用于算法訓(xùn)練,300張用于測試。選擇視頻畫面中的運(yùn)動(dòng)員頭盔作為跟蹤目標(biāo)。選取6種主流跟蹤算法與本文算法在OTB-2015測試數(shù)據(jù)集中進(jìn)行對(duì)比實(shí)驗(yàn)。

3.2 跟蹤效果對(duì)比

為了驗(yàn)證本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效果,以測試集中的一張具有跟蹤目標(biāo)模糊、有遮擋、不規(guī)則情況的照片為例,比較選取的6種主流跟蹤算法與本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤結(jié)果如圖1所示。

圖1 不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤結(jié)果Fig.1 Fast-motion visual target tracking results for different algorithms

根據(jù)圖1可知,文獻(xiàn)[6]和文獻(xiàn)[8]算法均存在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤錯(cuò)誤的問題;文獻(xiàn)[9]和文獻(xiàn)[10]算法均存在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤遺漏的問題;而文獻(xiàn)[11]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效果最差,無法跟蹤模糊的快速運(yùn)動(dòng)視覺目標(biāo);只有本文算法和文獻(xiàn)[7]算法能夠較好地跟蹤快速運(yùn)動(dòng)視覺目標(biāo),但文獻(xiàn)[7]算法無法跟蹤被遮擋的快速運(yùn)動(dòng)視覺目標(biāo)。對(duì)比上述不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤結(jié)果可知,本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效果較好,能夠有效跟蹤被遮擋、模糊、不規(guī)則的快速運(yùn)動(dòng)視覺目標(biāo)。

3.3 跟蹤精度對(duì)比

為了驗(yàn)證所提算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤精度,將跟蹤準(zhǔn)確率作為評(píng)價(jià)指標(biāo),其跟蹤準(zhǔn)確率越高,表明算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤精度越高。其計(jì)算公式為

(23)

式(23)中,ms是指正確跟蹤的快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量;mz是指需要跟蹤的快速運(yùn)動(dòng)視覺目標(biāo)總數(shù)量,設(shè)定為289張測試圖像中的2 500個(gè)目標(biāo)。選取6種主流跟蹤算法與本文算法進(jìn)行對(duì)比,得到不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率如圖2所示。

圖2 不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率Fig.2 Fast motion visual target tracking accuracy for different algorithms

根據(jù)圖2可知,當(dāng)快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量達(dá)到2 500個(gè)時(shí),所提算法、文獻(xiàn)[6]算法和文獻(xiàn)[7]算法的平均快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率分別為97.6%,94.3%和91.8%,其跟蹤準(zhǔn)確率均在90%以上;文獻(xiàn)[9]算法和文獻(xiàn)[10]算法的平均快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率分別為85.6%和88.8%,其跟蹤準(zhǔn)確率均在80%以上;文獻(xiàn)[8]算法和文獻(xiàn)[11]算法的平均快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率分別為79.8%和78.3%,其跟蹤準(zhǔn)確率均低于80%。對(duì)比上述不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率可知,本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率最高,能夠有效提高快速運(yùn)動(dòng)視覺目標(biāo)跟蹤精度。

3.4 跟蹤魯棒性對(duì)比

進(jìn)一步驗(yàn)證本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤魯棒性,將跟蹤成功率作為評(píng)價(jià)指標(biāo),跟蹤成功率越高,表明算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤魯棒性越強(qiáng)。其計(jì)算公式為

(24)

式(24)中,cg是指成功跟蹤的快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量。采用選取的6種主流跟蹤算法與所提算法進(jìn)行對(duì)比,得到不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率如表2所示。

表2 不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率Tab.2 Success rate of fast motion visual target tracking for different algorithms

根據(jù)表2可知,當(dāng)快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量為2 500個(gè)時(shí),本文算法、文獻(xiàn)[6]算法和文獻(xiàn)[7]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率均值分別為98.2%,83%和86.2%,其跟蹤成功率均在80%以上;文獻(xiàn)[8]、文獻(xiàn)[9]和文獻(xiàn)[10]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率均值分別為70%,78%和71.8%,其跟蹤準(zhǔn)確率均在70%以上;文獻(xiàn)[11]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率均值僅為63.8%,其跟蹤準(zhǔn)確率均低于70%。對(duì)比上述不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率可知,本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率最高,能夠有效增強(qiáng)快速運(yùn)動(dòng)視覺目標(biāo)跟蹤魯棒性。

3.5 跟蹤效率對(duì)比

在此基礎(chǔ)上,驗(yàn)證本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效率,將目標(biāo)跟蹤時(shí)間作為評(píng)價(jià)指標(biāo),其目標(biāo)跟蹤時(shí)間越短,表明算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效率越高。采用選取的6種主流跟蹤算法與所提算法進(jìn)行對(duì)比,得到不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間如表3所示。

表3 不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間Tab.3 Fast motion visual target tracking time for different algorithms

根據(jù)表3可知,隨著快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量的增加,不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間隨之增加。當(dāng)快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量為2 500個(gè)時(shí),文獻(xiàn)[6]、文獻(xiàn)[7]和文獻(xiàn)[9]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間分別為10.1,11.2和10.5 s,其跟蹤時(shí)間均在10 s以上;文獻(xiàn)[8]、文獻(xiàn)[10]和文獻(xiàn)[11]算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間分別為8.7,7.5和8.2 s,其跟蹤時(shí)間均在7 s以上;而本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間僅為4.5 s。對(duì)比上述不同算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間可知,本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間較短,能夠有效提高快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效率。

4 結(jié)論

本文提出了融合多尺度核相關(guān)濾波和深度特征匹配模型的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤算法。采用核相關(guān)濾波跟蹤算法,針對(duì)快速運(yùn)動(dòng)視覺目標(biāo)的尺度變化,訓(xùn)練多尺度核相關(guān)濾波器進(jìn)行快速運(yùn)動(dòng)視覺目標(biāo)跟蹤特征提取。當(dāng)快速運(yùn)動(dòng)視覺目標(biāo)被嚴(yán)重遮擋或目標(biāo)模糊時(shí),融合深度特征匹配模型,實(shí)現(xiàn)快速運(yùn)動(dòng)視覺目標(biāo)跟蹤。通過仿真實(shí)驗(yàn)驗(yàn)證了該算法的有效性,并得出以下結(jié)論:

1) 本文算法具有較好的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效果,能夠有效跟蹤被遮擋、模糊的快速運(yùn)動(dòng)視覺目標(biāo)。

2) 本文算法的平均快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率高達(dá)97.6%,相比其他算法,其快速運(yùn)動(dòng)視覺目標(biāo)跟蹤準(zhǔn)確率最高,能夠有效提高快速運(yùn)動(dòng)視覺目標(biāo)跟蹤精度。

3) 本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率均值高達(dá)98.2%,相比其他算法,其快速運(yùn)動(dòng)視覺目標(biāo)跟蹤成功率最高,具有較強(qiáng)的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤魯棒性。

4) 隨著快速運(yùn)動(dòng)視覺目標(biāo)數(shù)量的增加,本文算法的快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間僅為4.5 s,其快速運(yùn)動(dòng)視覺目標(biāo)跟蹤時(shí)間較短,可以有效提高快速運(yùn)動(dòng)視覺目標(biāo)跟蹤效率。

在快速運(yùn)動(dòng)視覺目標(biāo)跟蹤過程中,由于多尺度參數(shù)在空間位置上與其他尺度有所偏差,使得尺度估計(jì)不夠精準(zhǔn)。因此,在下一步的研究中,可以從金字塔注意力層的思路突破這一局限性。

猜你喜歡
分類器尺度濾波
財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
電子測試(2018年1期)2018-04-18 11:52:35
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
基于線性正則變換的 LMS 自適應(yīng)濾波
遙測遙控(2015年2期)2015-04-23 08:15:18
9
基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
基于隨機(jī)加權(quán)估計(jì)的Sage自適應(yīng)濾波及其在導(dǎo)航中的應(yīng)用
塔城市| 漳浦县| 延长县| 湟源县| 台江县| 太和县| 桓仁| 龙陵县| 绥棱县| 恩平市| 南投县| 宁波市| 苍梧县| 荃湾区| 东乌珠穆沁旗| 洛扎县| 常熟市| 海安县| 明溪县| 黄冈市| 湖南省| 浪卡子县| 垫江县| 丹寨县| 长葛市| 杭锦旗| 和林格尔县| 平舆县| 建湖县| 寿阳县| 炉霍县| 郧西县| 建德市| 双流县| 棋牌| 武义县| 潮安县| 石河子市| 藁城市| 昂仁县| 洛扎县|