周嘉麒 王指輝 廖萬(wàn)斌
(南京航空航天大學(xué) 南京 211106)
隨著無(wú)人機(jī)在軍用及民用領(lǐng)域的廣泛應(yīng)用,以無(wú)人機(jī)為平臺(tái)的圖像獲取和處理技術(shù)在軍事、交通、物流和攝影等諸多領(lǐng)域得到快速發(fā)展?;跓o(wú)人機(jī)視覺的多目標(biāo)跟蹤技術(shù)已成為一項(xiàng)重要的研究課題。而無(wú)人機(jī)采集的視頻中往往存在目標(biāo)被遮擋而發(fā)生身份跳變的問(wèn)題,因此研究一種高效、魯棒的無(wú)人機(jī)多目標(biāo)跟蹤算法對(duì)無(wú)人機(jī)的應(yīng)用具有十分重要的意義。
在已提出的多目標(biāo)跟蹤(Multiple Object Track?ing,MOT)算法中,有一些是全局優(yōu)化的視頻批處理算法,它們的跟蹤框架大多基于最小成本流法和概率圖模型[1~3]。然而,批處理方法不能達(dá)到實(shí)時(shí)檢測(cè)和跟蹤的目的。因此,另一部分基于在線處理的跟蹤算法更具實(shí)用性,滿足當(dāng)前任務(wù)的要求。例如,多假設(shè)跟蹤算法(Multiple Hypothesis Tracking,MHT)[4~5]和聯(lián)合概率數(shù)據(jù)關(guān)聯(lián)過(guò)濾器(Joint Proba?bilistic Data Association,JPDA)[6~7]的在線算法在逐幀的基礎(chǔ)上執(zhí)行數(shù)據(jù)關(guān)聯(lián),其精度也排在MOT基準(zhǔn)的前列。然而,包括上述兩種方法在內(nèi)的許多在線跟蹤器對(duì)遮擋問(wèn)題執(zhí)行復(fù)雜處理,無(wú)疑增加了計(jì)算復(fù)雜性。
SORT(Simple Online and Real-time Tracking,SORT)[8~10]是一個(gè)在實(shí)際應(yīng)用中使用較為廣泛的一個(gè)算法,它使用經(jīng)典有效的方法,即卡爾曼濾波器[11]和匈牙利算法[12],來(lái)處理跟蹤問(wèn)題中的運(yùn)動(dòng)預(yù)測(cè)和數(shù)據(jù)關(guān)聯(lián)。將前一幀和當(dāng)前幀發(fā)送給跟蹤器進(jìn)行處理,最簡(jiǎn)單的跟蹤方法雖然能提高在線跟蹤的效率和可靠性,但難以解決長(zhǎng)期遮擋和目標(biāo)識(shí)別問(wèn)題,隨后,Wojke[13]等提出基于表觀特征的深度關(guān)聯(lián)度量的在線實(shí)時(shí)跟蹤方法,即基于TBD策略的DeepSORT算法,解決了目標(biāo)的重新識(shí)別問(wèn)題。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[14]用于大規(guī)模行人識(shí)別數(shù)據(jù)集,借助ReID(Re-identification,ReID)領(lǐng)域模型加入了外觀信息,深度神經(jīng)網(wǎng)絡(luò)對(duì)特征的強(qiáng)大表達(dá)用于建立跟蹤問(wèn)題中的明顯特征,并將數(shù)據(jù)關(guān)聯(lián)轉(zhuǎn)化為運(yùn)動(dòng)信息與表觀特征相結(jié)合的度量,解決了跟蹤過(guò)程中遮擋造成ID Switch的缺陷。盡管新的度量在一定程度上減少了遮擋的干擾,但這個(gè)問(wèn)題仍然無(wú)法消除。使用基于檢測(cè)的跟蹤方法必須將準(zhǔn)確的檢測(cè)結(jié)果輸入跟蹤器,以便在線實(shí)時(shí)跟蹤。然而,傳統(tǒng)的目標(biāo)檢測(cè)算法精度差,無(wú)法給出準(zhǔn)確的檢測(cè)結(jié)果,使得后續(xù)跟蹤難以達(dá)到更高的精度,甚至造成更多的失配。因此,本文將基于深度神經(jīng)網(wǎng)絡(luò)的YOLOv4-ti?ny[15]目標(biāo)檢測(cè)算法集成到DeepSORT跟蹤算法框架中。利用YOLOv4檢測(cè)到的目標(biāo)作為后續(xù)跟蹤的基礎(chǔ),完成無(wú)人機(jī)多目標(biāo)跟蹤的實(shí)現(xiàn)與優(yōu)化。
由于無(wú)人機(jī)視頻是以幀格式呈現(xiàn)的,如果目標(biāo)檢測(cè)器能夠準(zhǔn)確地識(shí)別每幀中的多個(gè)目標(biāo),那么在線多目標(biāo)跟蹤問(wèn)題可以簡(jiǎn)化為數(shù)據(jù)關(guān)聯(lián),為了提高在線多目標(biāo)跟蹤的性能,提出了一種融合型數(shù)據(jù)關(guān)聯(lián)框架,該框架結(jié)合了局部數(shù)據(jù)關(guān)聯(lián)和全局?jǐn)?shù)據(jù)關(guān)聯(lián)的優(yōu)點(diǎn)。根據(jù)實(shí)驗(yàn)結(jié)果和數(shù)據(jù)集的性能指標(biāo),與基準(zhǔn)的YOLOv4-DeepSORT算法對(duì)比,提升了跟蹤準(zhǔn)確度,且降低了身份跳變次數(shù)。
基于目標(biāo)檢測(cè)的多目標(biāo)跟蹤策略,也稱為TBD(Tracking By Detection)策略,是當(dāng)前MOT算法研究的熱點(diǎn)。本文采用的TBD策略為先用YOLOv4-ti?ny檢測(cè)進(jìn)行目標(biāo)檢測(cè),再用DeepSORT進(jìn)行多目標(biāo)跟蹤。具體實(shí)現(xiàn)步驟:首先使用YOLOv4-tiny目標(biāo)檢測(cè)算法對(duì)當(dāng)前無(wú)人機(jī)視頻中的行人及車輛進(jìn)行檢測(cè),得到其位置坐標(biāo)、分類及可信度;其次使用卡爾曼濾波算法預(yù)測(cè)下一幀的目標(biāo)框狀態(tài),對(duì)預(yù)測(cè)結(jié)果和測(cè)量結(jié)果進(jìn)行更新;緊接著使用匈牙利算法將當(dāng)前檢測(cè)到的目標(biāo)與上一幀檢測(cè)到的目標(biāo)進(jìn)行級(jí)聯(lián)匹配,得到關(guān)聯(lián)的目標(biāo)框;最后根據(jù)匹配結(jié)果將關(guān)聯(lián)的目標(biāo)框作為觀測(cè)值更新狀態(tài),得到當(dāng)前幀的更新結(jié)果。具體的算法流程圖如圖1所示。
圖1 基于TBD策略的算法流程圖
基于TBD的MOT系統(tǒng)中,檢測(cè)器對(duì)跟蹤效果的魯棒性和速度有很大的影響,且隨著目標(biāo)數(shù)量的增加,運(yùn)行速度顯著變慢。因此,綜合考慮跟蹤性能和速度,本文采用高效的YOLOv4-tiny來(lái)實(shí)現(xiàn)檢測(cè)精度和速度之間的平衡。區(qū)別于YOLOv4[16~17]的深層復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu),YOLOv4-tiny是一種輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)
YOLOv4-tiny采用CSPDarknet53-tiny網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),應(yīng)用CBLblock和CSPBlock進(jìn)行特征提取。其中,CBLblock包含卷積運(yùn)算(Convolution?al)、批量標(biāo)準(zhǔn)化(BN)和激活函數(shù)。為了減少計(jì)算量,激活函數(shù)采用LeakyRelu函數(shù),其定義如下:
其中ai是大于1的常量。CSPBlock采用跨階段部分連接結(jié)構(gòu),將輸入特征映射分為兩部分,并在跨階段殘差中將這兩部分連接起來(lái)。CSPBlock在保證網(wǎng)絡(luò)檢測(cè)精度的同時(shí),可以顯著降低10%~20%的計(jì)算復(fù)雜度。在多特征階段,YOLOv4-tiny構(gòu)建特征金字塔網(wǎng)絡(luò)來(lái)提取特征,通過(guò)特征金字塔網(wǎng)絡(luò),可以得到兩個(gè)不同大小的有效特征圖。為了評(píng)估檢測(cè)率,YOLOv4-tiny根據(jù)目標(biāo)的分類和定位采用特征映射。
預(yù)測(cè)過(guò)程中,YOLOv4-tiny將輸入圖像劃分為大小為S×S的網(wǎng)格,CSPDarknet53-tiny將13×13的特征層與26×26的特征層進(jìn)行,最后會(huì)分別生成通道數(shù)為na×(nc+5)的兩個(gè)輸出通道,na代表錨框數(shù)量,nc為類別數(shù)。26×26的通道預(yù)測(cè)小目標(biāo),13×13的通道預(yù)測(cè)大目標(biāo)。隨后,為了減少冗余的邊界框,我們可以計(jì)算每個(gè)檢測(cè)框的置信度得分。置信度分?jǐn)?shù)低于預(yù)設(shè)閾值的檢測(cè)將被刪除。每次檢測(cè)的置信度得分Conf定義為
其中P(object)表示檢測(cè)框包含對(duì)象的可能性,若網(wǎng)格中含有目標(biāo)則P(object)=1,反之P(object)=0。表示真實(shí)值邊框與預(yù)測(cè)值邊框的交并比,可表示為
為計(jì)算預(yù)測(cè)框和真實(shí)框之間的類別誤差。采用分類損失函數(shù)為
其中,i,j表示第i個(gè)網(wǎng)格的第j個(gè)邊界框,若包含對(duì)象,反之,不包含對(duì)象表示邊界框包含目標(biāo)真實(shí)值的可能性,pi(c)表示邊界框包含目標(biāo)預(yù)測(cè)值的可能性。YOLOv4-tiny采用預(yù)測(cè)框更加符合真實(shí)框的CIoU損失函數(shù)[18]進(jìn)行邊界框回歸。CIoU損失函數(shù)定義如式(5)所示:
其中,ρ2表示歐氏距離,bpred,btruth分別表示area(pred),area(truth)的中心點(diǎn),c為真實(shí)框和預(yù)測(cè)框的最小包圍框的對(duì)角線長(zhǎng)度,wtruth、htruth表示真實(shí)框的寬度和高度,wpred、hpred表示預(yù)測(cè)框的寬度和高度。隨后得到其位置坐標(biāo)、分類及置信度,將每個(gè)視頻幀的檢測(cè)結(jié)果發(fā)送到數(shù)據(jù)關(guān)聯(lián)模型,以接收目標(biāo)的關(guān)聯(lián)結(jié)果。
DeepSORT算法在SORT算法的基礎(chǔ)上增加了級(jí)聯(lián)匹配和新軌跡的確認(rèn),以檢測(cè)結(jié)果的邊界框和置信度為輸入,經(jīng)過(guò)卡爾曼濾波器預(yù)測(cè)軌跡,將預(yù)測(cè)得到的新軌跡通過(guò)匈牙利算法和無(wú)人機(jī)視頻的當(dāng)前幀進(jìn)行級(jí)聯(lián)匹配和IoU匹配,最后進(jìn)行卡爾曼濾波更新。本文主要針對(duì)DeepSORT算法中的級(jí)聯(lián)匹配的數(shù)據(jù)關(guān)聯(lián)方法進(jìn)行優(yōu)化,在原有基礎(chǔ)上減少了ID Switch的次數(shù),有效降低了遮擋的干擾。
在MOT研究領(lǐng)域,數(shù)據(jù)關(guān)聯(lián)屬于個(gè)體檢測(cè)技術(shù)的子領(lǐng)域。DeepSORT算法通過(guò)數(shù)據(jù)關(guān)聯(lián)的間接方法,將復(fù)雜的多目標(biāo)跟蹤問(wèn)題分解為幾個(gè)簡(jiǎn)單的子問(wèn)題,在無(wú)約束環(huán)境下表現(xiàn)出良好的跟蹤性能。數(shù)據(jù)關(guān)聯(lián)的標(biāo)準(zhǔn)方法是逐幀遞歸,以匹配現(xiàn)有軌跡和更新后的檢測(cè)結(jié)果。局部關(guān)聯(lián)匹配方法具有較高的計(jì)算效率,由于時(shí)間是局部的,因此局部數(shù)據(jù)關(guān)聯(lián)適用于在線跟蹤。但局部數(shù)據(jù)關(guān)聯(lián)僅針對(duì)單幀檢測(cè)匹配對(duì)象,當(dāng)存在運(yùn)動(dòng)突變、對(duì)象檢測(cè)錯(cuò)誤或匹配錯(cuò)誤等因素時(shí),可能會(huì)導(dǎo)致嚴(yán)重的不可修復(fù)錯(cuò)誤,這一弱點(diǎn)直接影響在線多目標(biāo)跟蹤的性能。為了克服局部數(shù)據(jù)關(guān)聯(lián)方法的不足,對(duì)整個(gè)視頻幀進(jìn)行全局?jǐn)?shù)據(jù)關(guān)聯(lián)來(lái)推斷多目標(biāo)跟蹤的最優(yōu)軌跡。全局?jǐn)?shù)據(jù)關(guān)聯(lián)方法考慮了多幀之間更多的關(guān)聯(lián)假設(shè),能夠有效地減少頻繁遮擋或運(yùn)動(dòng)突變引起的跟蹤誤差。然而,全局?jǐn)?shù)據(jù)關(guān)聯(lián)是在獲取整個(gè)視頻幀的前提下進(jìn)行的,對(duì)于復(fù)雜場(chǎng)景和長(zhǎng)視頻來(lái)說(shuō)效率很低,因此難以應(yīng)用于無(wú)人機(jī)在線視頻的實(shí)時(shí)跟蹤。
為了提高在線多目標(biāo)跟蹤的性能,本文提出了一種融合型數(shù)據(jù)關(guān)聯(lián)框架,該框架結(jié)合了局部數(shù)據(jù)關(guān)聯(lián)和全局?jǐn)?shù)據(jù)關(guān)聯(lián)的優(yōu)點(diǎn)。
融合型數(shù)據(jù)關(guān)聯(lián)方法的核心思想是在時(shí)間窗內(nèi)找出現(xiàn)有軌跡與連續(xù)視頻幀檢測(cè)之間的相關(guān)性。與最小費(fèi)用網(wǎng)絡(luò)流模型類似,融合型數(shù)據(jù)關(guān)聯(lián)框架將每個(gè)現(xiàn)有軌跡識(shí)別為特定對(duì)象。所有對(duì)象和關(guān)聯(lián)可能性組成一個(gè)網(wǎng)絡(luò),其中對(duì)象由網(wǎng)絡(luò)的節(jié)點(diǎn)表示,關(guān)聯(lián)可能性由邊緣表示,邊緣代價(jià)用來(lái)衡量關(guān)聯(lián)的可能性。然后,該方法的實(shí)現(xiàn)轉(zhuǎn)化為通過(guò)指定對(duì)象流的最小代價(jià)來(lái)尋找最佳關(guān)聯(lián)。為了實(shí)現(xiàn)該方法,引入一個(gè)虛擬對(duì)象來(lái)識(shí)別新的對(duì)象,該對(duì)象被認(rèn)為是軌跡的原點(diǎn)。根據(jù)不同的現(xiàn)有軌跡,建立一個(gè)特定的模型,將特定對(duì)象與其他對(duì)象和背景區(qū)分開來(lái),用于計(jì)算網(wǎng)絡(luò)各方的成本。
本文使用邊緣代價(jià)函數(shù)度量關(guān)聯(lián)的可能性,并評(píng)估特定對(duì)象流的最小代價(jià)以找到最佳關(guān)聯(lián)。假設(shè)現(xiàn)有軌跡集為,其中Hj是第j條軌跡,K是軌跡總數(shù)。該檢測(cè)集合表示為,其中xi是第i次檢測(cè)的檢測(cè)結(jié)果,N是檢測(cè)的總次數(shù)。同時(shí)引入了一個(gè)有向網(wǎng)絡(luò)W(X),它具有多個(gè)起點(diǎn)STJ和終點(diǎn)ENJ,其中j?{1,2,3…,K},第j條軌道的起點(diǎn)和終點(diǎn)表示為 (STJ,ENJ)。
當(dāng)YOLOv4-tiny檢測(cè)到新的目標(biāo)時(shí),引入虛擬對(duì)象的起點(diǎn)和終點(diǎn)表示為(ST0,EN0),軌跡的起始邊緣代價(jià)和結(jié)束邊緣代價(jià)表示為(ST,UI)和(vi,EN)。定義起始邊緣的成本和流量為權(quán)重CSTi和權(quán)重CENi,結(jié)束邊緣的成本和流量為權(quán)重FSTi和權(quán)重FENi,由起點(diǎn)STJ,發(fā)送的流量由終點(diǎn)ENJ接收。在檢測(cè)的集合中存在?xi?X,與其對(duì)應(yīng)的一對(duì)節(jié)點(diǎn)(ui,vi)由觀測(cè)邊緣連接,權(quán)重為Ci和Fi;其檢查點(diǎn)(xi,xj)由帶有權(quán)重Cij和Fij的移動(dòng)邊緣表示,其中Cij是成本,F(xiàn)ij是流量。
使用該網(wǎng)絡(luò),將多目標(biāo)跟蹤問(wèn)題轉(zhuǎn)化為在多組起始點(diǎn)和結(jié)束點(diǎn)之間尋找最佳對(duì)象流,以最小化總成本,如式(6)所示:
將式(6)應(yīng)用于現(xiàn)有軌跡集的所有軌跡,并添加每條軌跡的起始成本、結(jié)束成本、觀測(cè)成本和遷移成本。多目標(biāo)跟蹤的最小化總成本的公式可以表示為式(7):
其中η是衰減系數(shù),并且O表示兩個(gè)邊界框之間的重疊比率。
其中函數(shù)?用于評(píng)估軌跡Hh和對(duì)應(yīng)對(duì)象的相似度。mh表示跟蹤軌跡Hh的外觀特征,mi表示檢測(cè)結(jié)果xi經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取的外觀特征,然后對(duì)軌跡的外觀特征進(jìn)行分析,最后以10幀的平均外觀特征輸出。當(dāng)兩個(gè)特征屬于同一個(gè)對(duì)象時(shí),函數(shù)?給出高相似度分?jǐn)?shù),當(dāng)兩個(gè)特征不匹配時(shí),給出低相似度分?jǐn)?shù)。在相似度函數(shù)前增加一個(gè)負(fù)號(hào),構(gòu)成觀測(cè)成本,當(dāng)相似性得分為正時(shí),觀察成本為負(fù),對(duì)于虛擬對(duì)象,設(shè)置負(fù)相似性分?jǐn)?shù)。
其中mj表示檢測(cè)結(jié)果xj經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取的外觀特征。
為了驗(yàn)證本算法在無(wú)人機(jī)多目標(biāo)跟蹤任務(wù)上的有效性,選用 Visdrone2019-MOT[19]多目標(biāo)跟蹤數(shù)據(jù)集作為數(shù)據(jù)集進(jìn)行仿真測(cè)試,Vis?drone2019-MOT包含63段完整標(biāo)注的無(wú)人機(jī)多目標(biāo)跟蹤視頻,主要目標(biāo)為行人及車輛,該數(shù)據(jù)集與本次實(shí)驗(yàn)背景有較高的契合度。實(shí)驗(yàn)平臺(tái)采用In?tel i5-9400F處理器,Nvidia GTX 1660 Ti顯卡,內(nèi)存為16G、Windows 10操作系統(tǒng)。
本實(shí)驗(yàn)使用CLEAR-MOT[20]定義的多項(xiàng)指標(biāo)來(lái)評(píng)估本算法模型的跟蹤軌跡結(jié)果,如多目標(biāo)跟蹤準(zhǔn)確度 MOTA(Multiple Object Tracking Accuracy,MOTA)、多目標(biāo)跟蹤精度MOTP(Multiple Object Tracking Precision,MOTP)、命中的軌跡假設(shè)占ground truth總軌跡的比例(MT)、丟失的目標(biāo)軌跡占ground truth總軌跡的比例(ML)、誤檢總數(shù)(FP)和漏檢總數(shù)(FN)作為評(píng)判標(biāo)準(zhǔn)以及表示目標(biāo)丟失次數(shù)的身份跳變次數(shù)(ID-S)。
通過(guò)對(duì)測(cè)試集Visdrone2019-MOT中無(wú)人機(jī)視頻的目標(biāo)進(jìn)行跟蹤來(lái)驗(yàn)證對(duì)本算法對(duì)于無(wú)人機(jī)多目標(biāo)跟蹤的優(yōu)化,并將測(cè)試序列的多目標(biāo)跟蹤結(jié)果進(jìn)行可視化,其結(jié)果如圖3~圖5所示。實(shí)驗(yàn)結(jié)果列于表1。
圖3 車輛跟蹤結(jié)果圖
圖4 行人跟蹤結(jié)果圖
圖5 行人、車輛跟蹤結(jié)果圖
圖3為視頻序列uav0000268_05773_v對(duì)車輛的跟蹤效果;圖4為視頻序列uav0000084_00000_v對(duì)行人的跟蹤實(shí)驗(yàn)效果;圖5為視頻序列uav0000315_00000_v對(duì)行人和車輛的跟蹤效果,不同顏色的矩形框代表跟蹤框,左上角標(biāo)注了目標(biāo)類別和ID序號(hào)。
由表1可知,本文算法在視頻序列uav0000268_05773_v上效果最佳,在視頻序列uav0000084_00000_v上效果最差,這是因?yàn)樾蛄衭av0000084_00000_v中行人目標(biāo)過(guò)小,基數(shù)龐大且分布集中,易發(fā)生遮擋而造成誤檢和漏檢現(xiàn)象,導(dǎo)致誤差較大,跟蹤效果差。在視頻序列uav0000315_00000_v相對(duì)背景比較鮮明,車輛目標(biāo)大小適宜,跟蹤效果良好,但又部分行人目標(biāo)較小,導(dǎo)致行人跟蹤效果一般。
表1 本文算法在測(cè)試集Visdrone2019-MOT不同序列上的量化跟蹤結(jié)果
為驗(yàn)證基于融合數(shù)據(jù)關(guān)聯(lián)算法能有效降低身份跳變次數(shù),選用多個(gè)交通目標(biāo)在遮擋條件下的場(chǎng)景,與基準(zhǔn)YOLOv4-tiny DeepSORT算法進(jìn)行了對(duì)比,遮擋效果截圖如圖6、圖7所示。實(shí)驗(yàn)結(jié)果列于表2。
圖6 基準(zhǔn)YOLOv4-tiny DeepSORT算法跟蹤結(jié)果圖
圖7 基于融合數(shù)據(jù)關(guān)聯(lián)的YOLOv4-tiny DeepSORT算法跟蹤結(jié)果圖
表2 本文算法與基準(zhǔn)算法跟蹤結(jié)果對(duì)比
由表2所示,本文算法的跟蹤準(zhǔn)確度為62.5%,比基準(zhǔn)算法跟蹤準(zhǔn)確度提升1%,身份跳變次數(shù)減少4%,從而證明了本文算法有良好的跟蹤準(zhǔn)確度且可有效解決目標(biāo)被遮擋問(wèn)題而造成ID Switch的問(wèn)題。
圖6為基準(zhǔn)YOLOv4-tiny DeepSORT算法跟蹤結(jié)果圖,第一張圖片為第185幀目標(biāo)被遮擋發(fā)生前,人行道上白車前的行人ID序號(hào)為75;第二張圖片第209幀目標(biāo)被遮擋,此時(shí)發(fā)生身份跳變,行人ID序號(hào)跳變?yōu)?9;第三張圖片為第223幀目標(biāo)遮擋過(guò)程已結(jié)束,行人ID序號(hào)依然為59,說(shuō)明基準(zhǔn)YO?LOv4-tiny DeepSORT不能完全改善因遮擋造成ID Switch的缺陷。圖7為基于融合數(shù)據(jù)關(guān)聯(lián)的YO?LOv4-tiny DeepSORT算法跟蹤結(jié)果圖,第一張圖片為第185幀目標(biāo)被遮擋發(fā)生前,人行道上白車前的行人ID序號(hào)為5;第二張圖片第209幀目標(biāo)被遮擋,因發(fā)生遮擋造成目標(biāo)丟失;第三張圖片為第223幀找回丟失目標(biāo),行人ID序號(hào)依然為5,由此可見,基于融合數(shù)據(jù)關(guān)聯(lián)的YOLOv4-tiny DeepSORT算法比基準(zhǔn)YOLOv4-tiny DeepSORT算法對(duì)遮擋的處理要好,有效地降低被遮擋然后再出現(xiàn)的目標(biāo)發(fā)生的身份跳變次數(shù),提高了無(wú)人機(jī)的跟蹤性能。
本文提出了一種融合型數(shù)據(jù)關(guān)聯(lián)框架,基于YOLOv4-tiny目標(biāo)檢測(cè)算法和DeepSORT目標(biāo)跟蹤算法可實(shí)現(xiàn)無(wú)人機(jī)視頻中多目標(biāo)的實(shí)時(shí)檢測(cè)與跟蹤,仿真結(jié)果表明,與基準(zhǔn)算法相比跟蹤準(zhǔn)確度提升1%,身份跳變次數(shù)減少4%,能夠有效改善目前無(wú)人機(jī)多目標(biāo)跟蹤任務(wù)中由于遮擋而發(fā)生身份跳變的問(wèn)題。融合型數(shù)據(jù)關(guān)聯(lián)框架也會(huì)有不足之處,比如在跟蹤視頻時(shí)會(huì)導(dǎo)致在時(shí)間幀(a+1)處發(fā)生延遲,即便如此,也可以在要求時(shí)間內(nèi)完成有效的在線多目標(biāo)跟蹤問(wèn)題,后續(xù)可作進(jìn)一步研究。