国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于時(shí)空顯著性建模的空中飛行器跟蹤方法

2020-04-16 01:15:16張偉俊鐘勝王建輝
航空學(xué)報(bào) 2020年3期
關(guān)鍵詞:分類器尺度背景

張偉俊,鐘勝,王建輝

1. 華中科技大學(xué) 人工智能與自動(dòng)化學(xué)院,武漢 430074 2. 華中科技大學(xué) 多譜信息處理技術(shù)國(guó)家級(jí)重點(diǎn)實(shí)驗(yàn)室,武漢 430074

隨著機(jī)器計(jì)算能力的提升、人工智能與航空電子技術(shù)的日漸成熟,小型無(wú)人機(jī)逐漸步入應(yīng)用,在攝影攝像、智能監(jiān)控、地質(zhì)勘探、農(nóng)業(yè)自動(dòng)化、災(zāi)害防范與救助等領(lǐng)域廣泛使用,具有很高的商業(yè)與社會(huì)價(jià)值[1-2]。另一方面,由于無(wú)人機(jī)具有體積小、監(jiān)測(cè)難度大的特點(diǎn),其普及應(yīng)用帶來(lái)了較大的安全隱患,近年來(lái)無(wú)人機(jī)在機(jī)場(chǎng)附近違法飛行導(dǎo)致擾航的事件時(shí)有發(fā)生。此外,無(wú)人機(jī)也常被不法份子用于搬運(yùn)違規(guī)物品、非法拍攝等。在機(jī)場(chǎng)、邊防、監(jiān)獄、軍事要地、以及其他涉及安全與機(jī)密的場(chǎng)所,使用技術(shù)手段對(duì)非法進(jìn)入的無(wú)人機(jī)進(jìn)行跟蹤、監(jiān)測(cè)、打擊或者捕獲的需求與日俱增[3]。

與基于雷達(dá)、射頻、音頻等技術(shù)的反無(wú)人機(jī)方案[4]相比,基于視頻技術(shù)的方案具有可視化程度高、定位準(zhǔn)確的特點(diǎn),可實(shí)現(xiàn)檢測(cè)、跟蹤、識(shí)別、取證等功能的有機(jī)結(jié)合,并且為激光毀傷、干擾、捕獲等后續(xù)手段提供準(zhǔn)確的位置信息。視覺(jué)跟蹤技術(shù)[5]作為其中的重要模塊,其算法準(zhǔn)確度與魯棒性很大程度上影響了反無(wú)人機(jī)方案的成功率,因此提高針對(duì)無(wú)人機(jī)目標(biāo)的視覺(jué)跟蹤技術(shù),具有重要的實(shí)用價(jià)值[6]。

與此同時(shí),近年來(lái)安全與軍事領(lǐng)域趨向于智能化,視覺(jué)目標(biāo)跟蹤技術(shù)在其中的應(yīng)用受到各個(gè)國(guó)家的重視。使用跟蹤算法輔助導(dǎo)彈的精確制導(dǎo),實(shí)現(xiàn)對(duì)空中戰(zhàn)爭(zhēng)目標(biāo)的精準(zhǔn)打擊,是一項(xiàng)非常重要的應(yīng)用需求[7-8]。通過(guò)視覺(jué)跟蹤技術(shù)與雷達(dá)等其他探測(cè)設(shè)備的配合實(shí)現(xiàn)更精確的偵查預(yù)警,可以有效提高軍隊(duì)的戰(zhàn)斗能力。

目前主流跟蹤算法[9-12]研究的目標(biāo)大多數(shù)形狀規(guī)則方正、在跟蹤過(guò)程中與成像器角度比較固定,不存在明顯形變。相比之下,空中飛行器由于成像姿態(tài)、角度與距離變化導(dǎo)致目標(biāo)形狀、大小、寬高比持續(xù)變化,同時(shí)存在復(fù)雜背景干擾的問(wèn)題,跟蹤難度更大,兩者的典型例子對(duì)比如圖1 所示。

圖1 主流算法跟蹤目標(biāo)與空中飛行器目標(biāo)對(duì)比Fig.1 Comparison of target tracked by mainstream algorithms and airborne targets

現(xiàn)有跟蹤方法由于目標(biāo)表征模型不夠精確,容易受上述變化影響,隨著誤差累積定位到目標(biāo)局部或者擴(kuò)大區(qū)域,逐漸偏離目標(biāo),在長(zhǎng)期跟蹤任務(wù)中無(wú)法保證足夠的精度與魯棒性。

空中飛行器類的目標(biāo)由于與背景完全獨(dú)立,表觀特性通常與背景區(qū)域具有一定的反差,這一特點(diǎn)可通過(guò)視覺(jué)顯著性機(jī)制來(lái)建模表達(dá)。針對(duì)此類形狀變化較為突出的獨(dú)立物體,我們研究如何在視覺(jué)跟蹤場(chǎng)景中構(gòu)建合理的目標(biāo)顯著性模型,用于提高跟蹤器在目標(biāo)尺度、形狀變化、復(fù)雜背景等因素影響下的算法魯棒性。

視覺(jué)顯著性檢測(cè)通過(guò)模擬人眼的視覺(jué)注意機(jī)制,在圖像中選取優(yōu)先處理區(qū)域,提供給其他較上層的算法使用,經(jīng)典代表性方法包括基于空間域的方法、基于頻譜域的方法、基于圖論的方法等[13]。近年來(lái)提出的基于距離測(cè)度的方法[14-15]使用背景先驗(yàn)和距離度量來(lái)估計(jì)像素點(diǎn)的顯著性,在數(shù)據(jù)集上取得了不錯(cuò)的效果。此外,針對(duì)視頻序列中的顯著性檢測(cè),一些研究者提出對(duì)于時(shí)間域的信息進(jìn)行有效利用,建立時(shí)空(Spatio-temporal)注意力計(jì)算模型[16]。

在目標(biāo)跟蹤算法中引入顯著性模型,可以模擬人眼視覺(jué)注意機(jī)制的作用,為采樣、特征選擇、目標(biāo)定位等提供先驗(yàn)知識(shí),從而提高跟蹤效率和準(zhǔn)確率。一些研究者提出適用于跟蹤場(chǎng)景的顯著區(qū)域判斷方法,選擇局部顯著區(qū)域子塊分別進(jìn)行跟蹤,再使用這些子塊的跟蹤結(jié)果來(lái)進(jìn)行目標(biāo)的定位[17-18]。另外一個(gè)常見(jiàn)的研究思路是對(duì)目標(biāo)搜索區(qū)域進(jìn)行顯著圖的計(jì)算,利用顯著圖完成目標(biāo)的定位[19]。Choi等則采取多核多特征的策略,構(gòu)造了一組基于顯著性特征的相關(guān)濾波器,再對(duì)所有濾波器預(yù)測(cè)結(jié)果進(jìn)行融合得到最終跟蹤結(jié)果[20]。

有別于上述目標(biāo)跟蹤文獻(xiàn)普遍使用單幀圖像進(jìn)行顯著性估計(jì)的做法,由于跟蹤場(chǎng)景中圖像觀測(cè)隨時(shí)間遞增,而且?guī)g存在運(yùn)動(dòng)關(guān)聯(lián),本文提出一種新穎的時(shí)空顯著性計(jì)算模型,對(duì)時(shí)間域上的關(guān)聯(lián)信息以及當(dāng)前幀空間域圖像觀測(cè)信息進(jìn)行集成利用。此外,模型的構(gòu)建利用了目標(biāo)跟蹤任務(wù)場(chǎng)景提供的背景先驗(yàn)知識(shí)。因此,在本文模型中,目標(biāo)鄰域的顯著性估計(jì)與目標(biāo)跟蹤形成迭代交互的2個(gè)聯(lián)合子問(wèn)題。

其中,目標(biāo)跟蹤算法給出了上一幀的目標(biāo)定位信息,為圖像顯著性估算提供背景區(qū)域粗略位置、表觀特性等方面的先驗(yàn)知識(shí),用于指導(dǎo)顯著性檢測(cè)模型的構(gòu)建。顯著性模型通過(guò)構(gòu)建像素級(jí)貝葉斯概率推斷框架,集成時(shí)間域上的關(guān)聯(lián)信息以及當(dāng)前幀空間域圖像觀測(cè)信息。通過(guò)對(duì)跟蹤場(chǎng)景先驗(yàn)知識(shí)以及多幀圖像觀測(cè)信息的融合利用,該方法能夠在背景復(fù)雜的情況下,對(duì)目標(biāo)鄰域得到魯棒的顯著性估計(jì)結(jié)果。

反過(guò)來(lái),計(jì)算得到的顯著圖用于模擬人眼系統(tǒng)注意機(jī)制,為目標(biāo)跟蹤算法提供特征采樣方面的先驗(yàn)知識(shí)。具體的,以基于矩形模板目標(biāo)表征的算法為基礎(chǔ),在顯著圖的指導(dǎo)下選取有效視覺(jué)特征,構(gòu)建更為精確的目標(biāo)表征模型。在空中飛行目標(biāo)跟蹤過(guò)程中,所構(gòu)建的目標(biāo)表征使得算法能夠有效區(qū)分目標(biāo)與背景區(qū)域,及時(shí)調(diào)整目標(biāo)的寬高比與尺度估計(jì),更為精確地定位不同背景干擾下的飛行目標(biāo),在長(zhǎng)期跟蹤過(guò)程中保持穩(wěn)定準(zhǔn)確的目標(biāo)位置與尺度估計(jì)。

1 目標(biāo)鄰域的時(shí)空顯著性估計(jì)

1.1 時(shí)空顯著性建模

圖2 時(shí)空聯(lián)合顯著性估計(jì)問(wèn)題的貝葉斯網(wǎng)絡(luò)表示Fig.2 Bayesian network representation of spatio-temporal saliency estimation problem

(1)

式中:x′表示t時(shí)刻的像素點(diǎn)位置x在t-1時(shí)刻對(duì)應(yīng)的位置。記像素位置x在第t幀的后向光流場(chǎng)為Mt(x),則像素位置x的在第t-1幀在對(duì)應(yīng)的位置為

x′=x+Mt(x)

(2)

(3)

背景先驗(yàn)理論[21]用于背景區(qū)域已知的情況下在自然圖像中進(jìn)行顯著物體檢測(cè),在目標(biāo)較大且處于圖像中央的情況下,假設(shè)圖像的邊界為背景區(qū)域。本文提出在目標(biāo)跟蹤場(chǎng)景中對(duì)背景先驗(yàn)進(jìn)行應(yīng)用,背景區(qū)域的先驗(yàn)知識(shí)由目標(biāo)跟蹤模塊提供,如圖3所示。

圖3 目標(biāo)位置與提供的背景先驗(yàn)示意圖Fig.3 Demonstration of target position and background prior provided

1.2 基于顏色統(tǒng)計(jì)模型的觀測(cè)量

目標(biāo)跟蹤算法中,為區(qū)分目標(biāo)和背景像素,常見(jiàn)的做法是使用統(tǒng)計(jì)建模方法,對(duì)目標(biāo)與背景建立基于顏色特征的表觀模型。生成式模型致力于對(duì)目標(biāo)/背景顏色空間的分布分別建立模型進(jìn)行數(shù)據(jù)擬合,判別式模型則通過(guò)訓(xùn)練分類器,比如使用直方圖分類器來(lái)對(duì)兩者進(jìn)行區(qū)分[22-23]。一方面,由于目標(biāo)和背景像素在顏色空間具有多模分布的特點(diǎn),而且模式個(gè)數(shù)不確定,生成式模型通常難以進(jìn)行十分有效的數(shù)據(jù)擬合,另一方面,兩者在顏色空間通常呈現(xiàn)線性不可分的特點(diǎn),也給判別式模型分類器的訓(xùn)練帶來(lái)了難度。

相對(duì)于目標(biāo)而言,背景在顏色空間的分布通常具有更多的較為確定的規(guī)律性,且其模式分布與方位明顯呈現(xiàn)較大的相關(guān)性。從圖3中的典型目標(biāo)跟蹤場(chǎng)景可以看到,目標(biāo)上下左右4個(gè)方位的背景區(qū)域分別具有各自的簡(jiǎn)單模式分布。相比于對(duì)整個(gè)背景區(qū)域進(jìn)行統(tǒng)計(jì)建模,按照不同方位分別進(jìn)行統(tǒng)計(jì)建模的方法更為合理準(zhǔn)確。因此,本文提出對(duì)背景先驗(yàn)的一種應(yīng)用方式,通過(guò)統(tǒng)計(jì)各方位背景區(qū)域在顏色空間的分布,計(jì)算搜索區(qū)域每個(gè)像素點(diǎn)與各個(gè)方位背景區(qū)域在顏色空間上的距離,以此進(jìn)行距離觀測(cè)量的計(jì)算。

(4)

(5)

1.3 基于最小障礙距離的觀測(cè)量

1.2節(jié)假設(shè)和背景區(qū)域在顏色上差異越大的像素,屬于顯著區(qū)域的概率也越高。類似地,在像素位置空間,和背景區(qū)域距離越遠(yuǎn)的像素,其顯著性程度越高。由于我們以上一幀目標(biāo)位置為中心選取背景區(qū)域,如果直接在像素位置空間上計(jì)算背景距離,則距離最大的點(diǎn)為上一幀目標(biāo)中心,這導(dǎo)致在目標(biāo)快速運(yùn)動(dòng)的情況下會(huì)出現(xiàn)較大的估計(jì)誤差。因此,為了對(duì)位置空間的距離信息進(jìn)行利用,綜合地考慮位置和灰度兩方面的信息,在位置-灰度聯(lián)合空間上定義距離測(cè)度,以確保在目標(biāo)和背景顏色特征相似、以及目標(biāo)運(yùn)動(dòng)速度較快的情況下均能夠給出魯棒的顯著性估計(jì)結(jié)果。

理論上,需要定義搜索區(qū)域Ωt中每個(gè)像素點(diǎn)到背景區(qū)域的距離測(cè)度。假定基于該區(qū)域的二維單通道圖像來(lái)進(jìn)行計(jì)算,應(yīng)用背景先驗(yàn)將區(qū)域邊緣像素取作背景種子點(diǎn),區(qū)域中一條從某像素點(diǎn)到背景種子點(diǎn)的路徑記為π=〈π(0),π(1),…,π(k)〉,其中π(i)和π(i+1)是圖像區(qū)域Ωt中相互鄰接的2個(gè)像素,使用4鄰域的像素鄰接定義。

D(x)=minπ∈ΠS,x(π)

(6)

式中:ΠS,x為連接S和x之間的所有路徑,式(6)對(duì)所有可能的路徑進(jìn)行尋優(yōu),找到路徑消耗最短的路徑,以其路徑消耗衡量該像素點(diǎn)離背景區(qū)域S的距離。兩個(gè)像素位置x1和x2之間的路徑消耗函數(shù)可采用不同的方式進(jìn)行定義,應(yīng)滿足性質(zhì)(x1→x2)=(x2→x1)≥0。距離測(cè)度的定義取決路徑消耗函數(shù)(π)的定義,最終取決于不同的應(yīng)用。

一種經(jīng)典的定義是使用測(cè)地距離[21](Geodesic Distance),可以對(duì)像素位置和灰度2個(gè)空間的距離進(jìn)行綜合的衡量。這種方法累加了路徑上所有相鄰像素點(diǎn)的灰度差作為路徑消耗,其定義為

(7)

式中:I(·)為相應(yīng)像素位置中的圖像灰度值。文獻(xiàn)[15]使用最小障礙距離作為一種新的距離測(cè)度來(lái)配合背景先驗(yàn)進(jìn)行顯著性檢測(cè),其路徑消耗定義為

(8)

圖4 基于顏色與基于距離的目標(biāo)似然概率估計(jì) 結(jié)果對(duì)比Fig.4 Comparison between results of color-based and saliency-based target likelihood estimation

2 基于顯著性信息指導(dǎo)的目標(biāo)跟蹤

2.1 最大間隔分類器模型

采用基于檢測(cè)器的目標(biāo)跟蹤框架,其核心思想是在歷史跟蹤圖像上采集正負(fù)目標(biāo)樣本訓(xùn)練分類器,在當(dāng)前幀通過(guò)一定的預(yù)測(cè)搜索策略產(chǎn)生大量的候選樣本,使用之前訓(xùn)練的分類器對(duì)這些樣本是目標(biāo)物體的概率進(jìn)行估計(jì),選取最佳樣本作為跟蹤輸出結(jié)果。

具體選擇結(jié)構(gòu)化輸出支持向量機(jī)[24]作為分類器。在訓(xùn)練階段,采用最大間隔分類思想,尋找使得正負(fù)樣本特征向量之間間隔最大的分類平面,得到分類器參數(shù)。在檢測(cè)階段,樣本的分類標(biāo)簽通過(guò)特征向量與分類器參數(shù)線性運(yùn)算得到。

具體的,在第t幀的時(shí)候,在圖像It中采集大量候選樣本形成集合Qt,從中選擇一個(gè)作為的目標(biāo)矩形框pt,以使得目標(biāo)函數(shù)最大化:

pt=argmaxp∈Qt〈hIt,p,θt-1〉

(9)

式中:〈·〉表示向量?jī)?nèi)積操作;θt-1為第t-1幀使用歷史數(shù)據(jù)訓(xùn)練得到的分類器模型參數(shù),表示支持向量機(jī)分類平面的法向量;hI,p為對(duì)圖像I中的矩形窗口p提取的特征描述符構(gòu)成的目標(biāo)表征向量。n個(gè)描述符根據(jù)在矩形窗口中的位置排列, 按順序堆疊成列向量對(duì)目標(biāo)物體進(jìn)行結(jié)構(gòu)化表征,記為

(10)

2.2 基于顯著性的目標(biāo)表征

以基于矩形模板的目標(biāo)表征模型為基礎(chǔ),采用8×8的特征網(wǎng)格對(duì)目標(biāo)進(jìn)行結(jié)構(gòu)化表示。網(wǎng)格點(diǎn)的每個(gè)特征描述符包含8方向的梯度直方圖,以及各通道維數(shù)為8的RGB顏色直方圖,構(gòu)成32維度向量。在主流目標(biāo)跟蹤方法的目標(biāo)表征過(guò)程中,由于不具備關(guān)于目標(biāo)輪廓方面的知識(shí),對(duì)于矩形框內(nèi)所有位置的特征描述符同等對(duì)待。

在本文的模型中,由第1節(jié)計(jì)算得到的顯著性概率圖可用于模擬人眼系統(tǒng)注意機(jī)制,為目標(biāo)跟蹤算法提供特征選擇方面的先驗(yàn)知識(shí),以構(gòu)造更為精確的目標(biāo)表征模型。使用特征描述符所在網(wǎng)格點(diǎn)鄰域的平均顯著性概率對(duì)其進(jìn)行加權(quán),即

(11)

(12)

式中:Ωx為像素位置x的鄰域像素點(diǎn)集合。圖5給出了一些典型的目標(biāo)樣本以及對(duì)應(yīng)的目標(biāo)表征權(quán)重模板{αxk}。從圖中可以看出,權(quán)重模板的使用抑制了矩形模板中非顯著區(qū)域的特征描述符,使得目標(biāo)表征模型更為精確,能夠有效消除背景中疑似物體的干擾。

圖5 基于顯著性的目標(biāo)表征示意圖Fig.5 Demonstration of saliency-based target representation

2.3 多方向多尺度搜索策略

空中飛行器目標(biāo)在跟蹤過(guò)程中由于姿態(tài)角度變化,存在的一個(gè)典型挑戰(zhàn)性因素是如圖1(b)和圖1(c)所示的目標(biāo)寬高比變化。現(xiàn)有的基于檢測(cè)的跟蹤方法在尺度估計(jì)方面,一類典型的做法是采用固定大小的目標(biāo)模板[10-11],另一類使用固定寬高比的模板,使用一個(gè)參數(shù)s表示模板的尺度大小,對(duì)該參數(shù)進(jìn)行估計(jì)[12]或者同時(shí)在多個(gè)尺度上檢測(cè)目標(biāo)[25]。這些做法顯然都無(wú)法滿足對(duì)空中飛行器進(jìn)行魯棒準(zhǔn)確跟蹤的需求。

不同于上述方法使用固定寬高比的做法,本文使用sx和sy兩個(gè)尺度縮放參數(shù)分別標(biāo)記x和y方向的尺度變化,在每一幀進(jìn)行多方向的多尺度檢測(cè)。為了避免同時(shí)改變2個(gè)方向尺度縮放參數(shù)帶來(lái)的計(jì)算成本大幅增加,提出一種對(duì)2個(gè)方向的尺度變化進(jìn)行分步估計(jì)的做法。具體的,首先在不改變目標(biāo)寬度的情況下,在y方向使用多個(gè)尺度縮放因子Sy={0.99,1,1.01}進(jìn)行多尺度并行檢測(cè),使用式(9)中目標(biāo)函數(shù)得分最大的N個(gè)樣本投票決定sy,然后在固定目標(biāo)高度的情況下,對(duì)x方向同樣使用多個(gè)尺度縮放因子進(jìn)行多尺度并行檢測(cè),使用式(9)選取最優(yōu)樣本作為算法輸出結(jié)果。由于大多數(shù)實(shí)際應(yīng)用中目標(biāo)尺度變化較為緩慢,同時(shí)出于計(jì)算成本的考慮,本文在實(shí)驗(yàn)與實(shí)際應(yīng)用中均使用3個(gè)尺度的縮放因子。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)概述

本文實(shí)驗(yàn)分為2個(gè)部分:第1部分基于課題應(yīng)用背景,使用提出的算法對(duì)空中飛行器進(jìn)行跟蹤,與其他主流方法進(jìn)行性能比較和分析,并且對(duì)本方法進(jìn)行消融實(shí)驗(yàn)分析。第2部分為驗(yàn)證本文算法模型具有一定的通用價(jià)值,在最常見(jiàn)的通用物體跟蹤數(shù)據(jù)集OTB-100[9]上進(jìn)行性能評(píng)估,與相關(guān)性程度較高的的主流算法進(jìn)行重點(diǎn)比較。

本文算法在配備了Intel Core i7處理器、8 GB內(nèi)存的個(gè)人計(jì)算機(jī)上運(yùn)行,使用C++實(shí)現(xiàn),平均運(yùn)行幀率為15 fps。對(duì)于實(shí)驗(yàn)比較的其他主流先進(jìn)方法,第1部分實(shí)驗(yàn)結(jié)果使用原作者提供的代碼和默認(rèn)參數(shù),在本課題應(yīng)用提供的數(shù)據(jù)集上進(jìn)行跟蹤實(shí)驗(yàn)獲得,第2部分的實(shí)驗(yàn)使用公開(kāi)的通用物體跟蹤數(shù)據(jù)集OTB-100,直接采用原作者提供的實(shí)驗(yàn)結(jié)果。

3.2 空中飛行器數(shù)據(jù)集實(shí)驗(yàn)

本節(jié)實(shí)驗(yàn)基于安防等實(shí)際應(yīng)用背景,驗(yàn)證本文算法在常見(jiàn)空中飛行器(飛機(jī)、無(wú)人機(jī))跟蹤任務(wù)中相對(duì)于其他方法的巨大優(yōu)勢(shì)。與主流跟蹤數(shù)據(jù)集中的常見(jiàn)目標(biāo)相比,空中飛行器跟蹤場(chǎng)景具有目標(biāo)形狀、大小、寬高比持續(xù)變化、存在復(fù)雜背景干擾等突出的難點(diǎn)問(wèn)題。由于目前尚無(wú)結(jié)合該應(yīng)用背景的數(shù)據(jù)集可用,與項(xiàng)目合作單位采集構(gòu)建了飛行器跟蹤數(shù)據(jù)集,包含不同天空與地面背景下的10個(gè)無(wú)人機(jī)序列和20個(gè)飛機(jī)序列,部分序列來(lái)自LaSOT數(shù)據(jù)庫(kù)[26]。遵循主流目標(biāo)跟蹤數(shù)據(jù)集的通行做法,視頻每一幀中的被跟蹤目標(biāo)使用外接矩形框的方式進(jìn)行了人工標(biāo)注,以方便對(duì)算法跟蹤性能進(jìn)行評(píng)估比較。

在本實(shí)驗(yàn)中,選取了16個(gè)代表性的方法進(jìn)行比較,具體可分為4類:① 與本文方法同樣基于最大間隔分類器的判別式模型算法Struck[24]和MEEM[11];② 經(jīng)典的相關(guān)濾波類的算法CSK[27]、KCF[10]、SAMF[28]、Staple[23]、SRDCF[29];③ 近兩年提出的基于手工特征的相關(guān)濾波改進(jìn)算法fDSST[12]、Staple_CA[30]、CSRDCF[31]、ECO_HC[32]以及MCCT_H[33];④ 近年來(lái)興起的基于深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)特征的CFNet[34]、VITAL[35]、TRACA[36]與ASRCF[37]方法。這些方法尤其是后兩類覆蓋了目前最先進(jìn)的主流目標(biāo)跟蹤方法。

遵循主流數(shù)據(jù)集的評(píng)估方法,基于中心位置誤差和重疊率指標(biāo)進(jìn)行統(tǒng)計(jì),通過(guò)精度圖和成功率圖顯示比較各算法的跟蹤性能。本實(shí)驗(yàn)采用一次通過(guò)估計(jì)(One Pass Evaluation,OPE)的方式給出跟蹤算法的精度圖與成功率圖,即從視頻開(kāi)頭使用標(biāo)注的基線矩形框進(jìn)行初始化,對(duì)算法在整個(gè)視頻跟蹤過(guò)程中的性能指標(biāo)進(jìn)行統(tǒng)計(jì),通過(guò)考察算法的長(zhǎng)期跟蹤能力評(píng)估其實(shí)用價(jià)值。

中心位置誤差(Center Location Error, CLE)是被廣泛使用的一個(gè)評(píng)價(jià)標(biāo)準(zhǔn),具體指跟蹤所得的目標(biāo)中心位置與基準(zhǔn)中心位置之間的歐氏距離,單位為像素,即

(13)

圖6(a)顯示了參與測(cè)評(píng)的算法在數(shù)據(jù)集上的精度圖,橫坐標(biāo)為中心位置誤差閾值,縱坐標(biāo)為精度(Precision),表示中心位置誤差小于該閾值的視頻幀數(shù)比例。使用SCLE為20的精度指標(biāo)衡量算法在數(shù)據(jù)集上的綜合性能,對(duì)其進(jìn)行排序,顯示在算法名稱前面。

從圖6(a)中可看出,本文方法在數(shù)據(jù)集上成功跟蹤的幀數(shù)比例為40.9%,高于其他使用手工特征的高效算法,其中性能表現(xiàn)最好的ECO_HC和MCCT_H跟蹤成功幀數(shù)比例分別為38.6%和36.6%??傮w上,本文方法與包括VITAL、CFNet、ASRCF在內(nèi)的基于深度學(xué)習(xí)的最新跟蹤器均取得了較好的跟蹤精度。本文方法跟蹤精度低于非實(shí)時(shí)的VITAL跟蹤器,略低于CFNet方法,略高于ASRCF方法。

重疊率(Overlap)是另一個(gè)常見(jiàn)的算法評(píng)價(jià)標(biāo)準(zhǔn), 具體定義為

(14)

圖6 在飛行目標(biāo)跟蹤數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Fig.6 Experimental results of airborne visual tracking dataset

圖6(b)顯示了各個(gè)算法在數(shù)據(jù)集上的成功率圖,橫坐標(biāo)為不同閾值的重疊率,縱坐標(biāo)為成功率(Success Rate),表示重疊率大于某個(gè)閾值的幀數(shù)比例。成功率曲線的曲線下方面積(Area Under Curve,AUC)被用作算法之間排序度量的指標(biāo),顯示在算法名稱前面。在成功率圖上排名靠前的為本文方法與基于深度學(xué)習(xí)的VITAL、ASRCF以及CFNet方法,與精度圖顯示的結(jié)論一致。不同的是,本文方法與VITAL分居前兩名,AUC值基本持平,明顯高于其他方法,說(shuō)明本文方法受益于提出的時(shí)空顯著性估計(jì)以及多方向多尺度搜索策略,在目標(biāo)尺度估計(jì)方面具有明顯的優(yōu)勢(shì)。

3.3 典型飛行器序列跟蹤結(jié)果

從3.2節(jié)使用的空中飛行器跟蹤數(shù)據(jù)集里面,選取了一些典型的序列進(jìn)行展示分析,以比較跟蹤器在常見(jiàn)挑戰(zhàn)性因素影響下的魯棒性。所比較的方法包括本文方法,3.2節(jié)實(shí)驗(yàn)中性能靠前的基于深度學(xué)習(xí)的VITAL、CFNet、TRACA和ASRCF方法,以及其他兩類方法中的代表性算法Struck、MEEM、fDSST、Staple和ECO_HC方法。

圖7~圖9顯示了本文方法和上述9個(gè)主流方法在這些典型序列上的跟蹤結(jié)果,使用不同顏色的矩形框?qū)Ω鞲櫰鞯妮敵鼋Y(jié)果進(jìn)行標(biāo)識(shí)。為了比較詳盡地展示跟蹤過(guò)程,對(duì)每個(gè)圖像序列按照時(shí)間順序從前到后截取了多幅圖像進(jìn)行分析,圖像的幀號(hào)在左上角使用黃色的數(shù)字顯示。

1) 較為簡(jiǎn)單的飛行器序列跟蹤效果

圖7(a)顯示了一個(gè)比較簡(jiǎn)單的無(wú)人機(jī)跟蹤序列,目標(biāo)在跟蹤過(guò)程中姿態(tài)、形狀、尺度均無(wú)明顯變化。但是由于受到路面標(biāo)記和無(wú)人機(jī)影子的干擾影響,較傳統(tǒng)的Struck、fDSST、MEEM算法先后偏離到背景區(qū)域,Staple算法存在較大的尺度估計(jì)誤差導(dǎo)致后期丟失目標(biāo)。

圖7(b)同樣是相對(duì)簡(jiǎn)單的跟蹤序列,背景簡(jiǎn)單干凈,飛機(jī)在飛行過(guò)程中姿態(tài)變化不大,僅存在成像距離引起的尺度變化,大多數(shù)跟蹤器都能夠比較準(zhǔn)確地定位目標(biāo)位置。其中,Struck和MEEM方法在第1 500幀之后估計(jì)的目標(biāo)尺度過(guò)小在后續(xù)跟蹤過(guò)程中出現(xiàn)不同程度的偏移。相比之下,深度學(xué)習(xí)類的方法與本文方法能夠很好地適應(yīng)飛行目標(biāo)的尺度變化,得到準(zhǔn)確的位置與尺度估計(jì)。

圖7 較為簡(jiǎn)單的飛行目標(biāo)跟蹤效果圖Fig.7 Demonstration of tracking results of simple airborne sequences

圖7(c)和圖7(d)中的序列由于目標(biāo)存在平面內(nèi)或平面外的旋轉(zhuǎn),導(dǎo)致形狀、寬高比發(fā)生變化,對(duì)跟蹤器的魯棒性提出了一定的要求。Staple、MEEM和fDSST方法在這兩個(gè)序列均中途丟失目標(biāo);TRACA方法隨著目標(biāo)形狀變化逐漸偏離到背景區(qū)域;Struck方法在2個(gè)序列中都成功定位到目標(biāo)物體上,但是尺度估計(jì)沒(méi)有及時(shí)調(diào)整,出現(xiàn)尺度過(guò)大或者過(guò)小的情況;CFNet和VITAL在序列圖7(d)中后期丟失目標(biāo),在序列圖7(c)上具有很好的跟蹤效果;ASRCF和ECO_HC在序列圖7(c)由于尺度估計(jì)偏差逐漸偏離目標(biāo),導(dǎo)致中途丟失,在序列圖7(d)中后期同樣出現(xiàn)明顯的尺度估計(jì)偏差;本文方法則在兩個(gè)序列上均具有很好的跟蹤精度和魯棒性。

2) 復(fù)雜背景下的飛行器序列跟蹤效果

圖8顯示了2個(gè)典型的復(fù)雜背景干擾下的無(wú)人機(jī)序列,無(wú)人機(jī)目標(biāo)在飛行過(guò)程中經(jīng)過(guò)草地、樹(shù)木、建筑物、天空、云層等典型背景,而且存在不同程度的尺度變化,具有很高的跟蹤難度。由于序列較長(zhǎng)且跟蹤過(guò)程中背景變化較多,對(duì)每個(gè)序列均摘取了跟蹤過(guò)程中的8個(gè)畫(huà)面進(jìn)行展示分析。

在序列圖8(a)第200幀的時(shí)候參與測(cè)試的跟蹤器都能準(zhǔn)確地定位目標(biāo)位置,到500幀的時(shí)候,ASRCF、fDSST、Staple和MEEM方法均跟蹤失敗,Struck和TRACA也在后續(xù)跟蹤過(guò)程中由于尺度估計(jì)過(guò)大,在目標(biāo)框中包含了大量的背景區(qū)域,算法建立的目標(biāo)模型受到背景信息污染,逐漸偏移到背景區(qū)域。ECO_HC在650幀左右、1 340幀左右均出現(xiàn)丟失現(xiàn)象,在其他幀存在尺度估計(jì)偏大的問(wèn)題。CFNet在650幀之后完全丟失目標(biāo),而VITAL和本文算法則在后續(xù)背景切換和尺度變化的干擾下,完成整個(gè)序列2 000多幀圖像的穩(wěn)定跟蹤。

序列圖8(b)顯示了類似的跟蹤效果。在第50幀的時(shí)候所有的跟蹤器均能準(zhǔn)確定位目標(biāo),而在后續(xù)的目標(biāo)快速移動(dòng)與尺度變小過(guò)程中,尺度估計(jì)不準(zhǔn)確的ASRCF、Staple、fDSST、Struck和MEEM跟蹤器先后偏移到背景區(qū)域,逐漸丟失目標(biāo)。本文方法與ECO_HC、VITAL、CFNet、TRACA均對(duì)總共2 000多幀圖像完成了飛行器目標(biāo)的長(zhǎng)時(shí)間穩(wěn)定跟蹤,在后期本文算法的尺度估計(jì)明顯比其他方法更為準(zhǔn)確。

3) 形狀持續(xù)變化的飛行器序列跟蹤效果

不同于傳統(tǒng)視頻監(jiān)控場(chǎng)景中的行人/車(chē)輛等目標(biāo)成像視角固定,形狀與寬高比沒(méi)有顯著變化,尺度變化緩慢,飛行器目標(biāo)在跟蹤過(guò)程中存在視角變化、距離變化、目標(biāo)翻轉(zhuǎn)運(yùn)動(dòng)等引起的目標(biāo)形狀、尺度、寬高比持續(xù)變化,對(duì)于跟蹤算法在定位與尺度估計(jì)上的精度都具有較高的要求。圖9展示了此類飛行器跟蹤序列中的2個(gè)例子,每個(gè)序列均展示了跟蹤過(guò)程中的8個(gè)畫(huà)面。從圖中可以看到,對(duì)于這兩個(gè)高難度的跟蹤序列,本文方法總體上能夠很好地適應(yīng)目標(biāo)形狀與寬高比變化,雖然在序列圖9(b)第800幀存在目標(biāo)尺度估計(jì)不夠準(zhǔn)確的問(wèn)題,但是仍然取得了比其他所有跟蹤器更加準(zhǔn)確的跟蹤結(jié)果,而且受益于時(shí)空顯著性模型提供的目標(biāo)定位信息,在目標(biāo)的后續(xù)變化中仍然能夠及時(shí)調(diào)整,保持對(duì)目標(biāo)的準(zhǔn)確定位,具有非常突出的魯棒性。

總體上,本文方法和VITAL在目標(biāo)定位和尺度估計(jì)上均具有較高的精度,其他基于深度學(xué)習(xí)的方法目標(biāo)定位方面表現(xiàn)較優(yōu),但是在目標(biāo)的尺度估計(jì)方面精度不足。相比之下,VITAL方法運(yùn)行幀率低于1 fps,遠(yuǎn)小于本文方法,暫時(shí)不具備在實(shí)際需求場(chǎng)景中應(yīng)用的潛力。本文方法與CFNet、ASRCF、TRACA等深度學(xué)習(xí)方法相比,不僅具有尺度估計(jì)更加準(zhǔn)確的優(yōu)勢(shì),而且由于沒(méi)有使用卷積神經(jīng)網(wǎng)絡(luò)特征,不依賴于使用高性能GPU設(shè)備進(jìn)行特征計(jì)算來(lái)達(dá)到實(shí)時(shí)跟蹤效果,可以用于一些不配備高性能GPU的場(chǎng)景,具有更廣泛的應(yīng)用范圍。

圖8 復(fù)雜背景下的飛行目標(biāo)跟蹤效果圖Fig.8 Demonstration of tracking results of airborne sequences with background clutter

圖9 形狀持續(xù)變化的飛行目標(biāo)跟蹤效果圖Fig.9 Demonstration of tracking results of airborne targets undergoing continuous deformation

3.4 消融實(shí)驗(yàn)

為論證方法主要思想對(duì)最終性能的影響,針對(duì)使用到的不同觀測(cè)以及多方向多尺度搜索策略,在飛行目標(biāo)跟蹤數(shù)據(jù)集上對(duì)本文方法進(jìn)行消融實(shí)驗(yàn)分析,在圖10中顯示了實(shí)驗(yàn)結(jié)果的成功率。本文方法各模塊標(biāo)識(shí)如下:① Baseline表示本文提出的基準(zhǔn)方法,使用最大間隔分類器配合2.2節(jié)提到的特征,不使用多方向多尺度搜索策略,不使用顯著圖進(jìn)行特征選擇;② MDMS(Multi-Direction Multi-Scale)表示2.3節(jié)提出的多方向多尺度搜索策略;③ D1表示應(yīng)用顯著圖進(jìn)行特征選擇,使用1.2節(jié)提出的觀測(cè)量;④ D2表示應(yīng)用顯著圖進(jìn)行特征選擇,使用1.3節(jié)提出的觀測(cè)量。本文最終采納的方案即Baseline+MDMS+D1+D2。此外,Struck是使用最大間隔分類器的經(jīng)典基準(zhǔn)方法[24],使用Haar特征進(jìn)行目標(biāo)表征,用于和Baseline對(duì)比。

圖10 在飛行目標(biāo)跟蹤數(shù)據(jù)集上的消融分析Fig.10 Ablation analysis on airborne tracking dataset

圖10中的實(shí)驗(yàn)結(jié)果顯示了若干重要的結(jié)論:① 在單獨(dú)消去D1、D2和MDMS模塊的情況下,本文方法性能出現(xiàn)不同程度的下降,成功率圖的AUC分?jǐn)?shù)分別減小4.1%、5.8%和14.3%;② 在Baseline上直接增加顯著性模型,成功率圖的AUC從20.6%提升到22.1%,變化不明顯,而在Baseline+MDMS上,顯著性的加入使得AUC從27.8%提升到36.4%,表明MDMS對(duì)于顯著性的準(zhǔn)確估計(jì)具有積極的影響,在本文方法中發(fā)揮十分重要的作用;③ 在Baseline+MDMS上,D1和D2的組合使用相比于單獨(dú)使用帶來(lái)了更為明顯的性能提升,說(shuō)明兩者提供的信息具有一定的互補(bǔ)性。上述結(jié)果表明,本文方法各模塊之間具有密切的聯(lián)系,且對(duì)方法的性能提升均具有實(shí)質(zhì)性的貢獻(xiàn)。

3.5 通用物體跟蹤性能

為了驗(yàn)證本文的建模方法具有一定的通用價(jià)值,在目標(biāo)跟蹤領(lǐng)域最常用的OTB-100測(cè)試數(shù)據(jù)集[9]上與主流的方法進(jìn)行比較分析。參與比較的相關(guān)濾波類的代表性方法有DSST[12]、KCF[10]、Staple[23]、SRDCF[29]、ECO_HC[32]以及MCCT_H[33],深度學(xué)習(xí)類的代表性方法有CFNet[34]、ACFN[38]、TRACA[36]與ASRCF[37]方法。其中,ACFN具有和本文方法類似的出發(fā)點(diǎn),對(duì)目標(biāo)鄰域的顯著性進(jìn)行了建模和估計(jì)。其他參與比較的Struck[24]、CNN-SVM[19]、LMCF[39]、MEEM[11]、DLSSVM/Scale-DLSSVM[25]方法與本文方法一樣,采用了最大間隔分類器作為基準(zhǔn)分類模型,是本節(jié)實(shí)驗(yàn)比較的重點(diǎn)。

與3.2節(jié)的實(shí)驗(yàn)類似,使用一次通過(guò)測(cè)試,即從視頻開(kāi)頭使用真值進(jìn)行初始化,對(duì)跟蹤過(guò)程中的每一幀使用式(13)和式(14)分別計(jì)算中心位置誤差和重疊率指標(biāo),再分別進(jìn)行統(tǒng)計(jì)比較。圖11(a)顯示了參與測(cè)評(píng)的算法在OTB-100上的精度圖,橫坐標(biāo)為中心位置誤差閾值,縱坐標(biāo)為相應(yīng)的距離精度,算法名稱前面的中括號(hào)里顯示了中心位置誤差為20的距離精度,用來(lái)對(duì)算法進(jìn)行排序。圖11(b)顯示了各個(gè)算法在數(shù)據(jù)集上的成功率圖,橫坐標(biāo)為不同閾值的重疊率,縱坐標(biāo)為成功率,成功率圖曲線的AUC被用作算法之間排序度量的指標(biāo)。

從圖11中可以看到,雖然本文模型針對(duì)形狀寬高比變化的空中飛行器提出,但是在通用物體跟蹤任務(wù)上也有不錯(cuò)的性能表現(xiàn),在精度圖與成功率圖上性能指標(biāo)均優(yōu)于包括TRACA、CFNet、ACFN、LMCF等在內(nèi)的主流跟蹤方法中的代表性方法。本文方法在成功率圖上的AUC為60.5%,相比于基準(zhǔn)方法Struck的46.2%提升了14.3%,典型精度則從63.9%提升到了82.0%。

圖11 OTB-100測(cè)試數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Fig.11 Experimental results of OTB-100 test dataset

表1給出了已知的使用最大間隔分類器方法的主流跟蹤方法,第2列給出了算法的典型精度(中心位置誤差小于20像素的幀數(shù)百分比),第3列給出了典型成功率(重疊率大于0.5的幀數(shù)百分比),并列出了每個(gè)方法的特點(diǎn)。

表1 使用最大間隔分類器的跟蹤方法性能對(duì)比

其中,CNN-SVM方法通過(guò)CNN特征反向投影構(gòu)造顯著圖,用于指導(dǎo)目標(biāo)表征模型的構(gòu)建,取得了同類方法里面的次優(yōu)精度,但是成功率僅為65.14%,與本文方法的73.84%有較大的差距。提出多峰檢測(cè)策略的LMCF方法取得了同類方法里的次優(yōu)成功率,但是成功率與精度均明顯低于本方法。Scale-DLSSVM在DLSSVM基礎(chǔ)上加入多尺度估計(jì),以犧牲運(yùn)行效率為代價(jià)提升了算法對(duì)目標(biāo)尺度變化的適應(yīng)能力,精度與成功率均有明顯提升,但是與本文方法相比仍然有一定差距。以上結(jié)果說(shuō)明,本文方法在跟蹤精度與魯棒性上均優(yōu)于其他同類方法,估計(jì)的顯著圖以及提出的目標(biāo)表征模型十分有效地提升了方法對(duì)目標(biāo)尺度與形狀變化的魯棒性。

4 結(jié) 論

1) 本文提出一種新穎的時(shí)空顯著性估計(jì)模型。通過(guò)對(duì)跟蹤場(chǎng)景中的多幀圖像觀測(cè)數(shù)據(jù)以及背景先驗(yàn)信息進(jìn)行利用,估計(jì)的顯著圖對(duì)背景噪聲干擾具有很強(qiáng)的魯棒性,能夠指導(dǎo)空中飛行器跟蹤算法構(gòu)建精確目標(biāo)表征模型,有效提升方法模型的魯棒性。

2) 提出的多方向多尺度目標(biāo)搜索策略使得跟蹤算法在保證實(shí)時(shí)性的同時(shí),更好地利用視覺(jué)表征信息,實(shí)現(xiàn)對(duì)目標(biāo)寬高比變化的自適應(yīng)調(diào)整。

3) 提出的方法能夠克服空中飛行器跟蹤過(guò)程中背景復(fù)雜、目標(biāo)形狀、寬高比變化等因素的干擾,跟蹤精度與魯棒性優(yōu)于大多數(shù)最先進(jìn)的主流方法,并且在精度/魯棒性/平臺(tái)要求/運(yùn)行速度上具有顯著的綜合優(yōu)勢(shì),具有很高的實(shí)用價(jià)值。

4) 方法在其他類型物體的跟蹤任務(wù)上跟蹤精度與魯棒性均優(yōu)于其他同類方法,提出的思想方法與建模技術(shù)具有一定的普適性。

猜你喜歡
分類器尺度背景
“新四化”背景下汽車(chē)NVH的發(fā)展趨勢(shì)
《論持久戰(zhàn)》的寫(xiě)作背景
財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
BP-GA光照分類器在車(chē)道線識(shí)別中的應(yīng)用
晚清外語(yǔ)翻譯人才培養(yǎng)的背景
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
9
基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
兴和县| 怀集县| 通道| 建德市| 乌拉特后旗| 尤溪县| 北票市| 乐至县| 东源县| 温州市| 双流县| 广西| 沙河市| 长沙县| 吴川市| 榆中县| 甘谷县| 翼城县| 武陟县| 南充市| 临朐县| 阜城县| 成安县| 南投市| 津市市| 乐平市| 山东| 汨罗市| 泰兴市| 凤庆县| 广水市| 柳河县| 古浪县| 尚义县| 松溪县| 永德县| 慈溪市| 黄浦区| 仪征市| 顺平县| 临城县|