国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv7和DeepSort的“低慢小”無(wú)人機(jī)目標(biāo)檢測(cè)跟蹤算法

2025-02-09 00:00:00簡(jiǎn)鈺洪楊輝躍王星罡容易圣朱禹坤
指揮控制與仿真 2025年1期
關(guān)鍵詞:目標(biāo)跟蹤目標(biāo)檢測(cè)機(jī)器視覺(jué)

摘 要:為提高“低慢小”無(wú)人機(jī)目標(biāo)檢測(cè)跟蹤精度,提出一種基于YOLOv7和DeepSort框架的改進(jìn)型無(wú)人機(jī)檢測(cè)算法,在YOLOv7算法骨干網(wǎng)絡(luò)引入了CBAM注意力機(jī)制提高特征提取能力,使用BiFPN加權(quán)特征金字塔替換PANet提高不同尺度特征融合能力,增加小目標(biāo)檢測(cè)層改善無(wú)人機(jī)檢測(cè)精度。構(gòu)建了天空、樹(shù)林、建筑和陰暗條件4類(lèi)背景的“低慢小”人機(jī)數(shù)據(jù)集,并進(jìn)行測(cè)試實(shí)驗(yàn)。結(jié)果表明,改進(jìn)型算法的檢測(cè)部分mAP@0.5提升了8.6%,特別是對(duì)小尺寸、弱特征的目標(biāo)檢測(cè)精度提高了約21%;最終跟蹤結(jié)果MOTA指標(biāo)提高24%,正確輸出的目標(biāo)框占真實(shí)目標(biāo)框的比例約70%。

關(guān)鍵詞:反無(wú)人機(jī);機(jī)器視覺(jué);目標(biāo)檢測(cè);目標(biāo)跟蹤

中圖分類(lèi)號(hào):TP391.41;V279 文獻(xiàn)標(biāo)志碼:A DOI:

10.3969/j.issn.1673-3819.2025.01.003

The \"Low Slow and Small\" UAV target detection and tracking algorithm

based on improved YOLOv7 and DeepSort

JIAN Yuhong, YANG Huiyue, WANG Xinggang, RONG Yisheng, ZHU Yukun

(Army Logistics Academy of PLA, Chongqing 401311, China)

Abstract:To improve the accuracy of Low altitude unmanned aerial vehicle(UAV) target detection and tracking, an improved UAV detection algorithm based on YOLOv7 and DeepSort framework is proposed. The CBAM attention mechanism is introduced into the backbone network of YOLOv7 algorithm to improve feature extraction ability. To improve feature fusion ability at different scales, BiFPN weighted feature pyramid is used to replace PANet, and a small target detection layer is added to improve the detection accuracy of small target UAVs. A \"low slow small\" human-machine data set is constructed with four types of backgrounds: sky, trees, buildings, and dark conditions. The experimental test is carried out. The results show that the detection part mAP@0.5 of the improved algorithm is improved by 8.6%, and the detection accuracy of small-size and weak-feature targets is improved by about 21%. In the final tracking result, the MOTA index was increased by 24%, and the correct output target box accounted for about 70% of the true target box.

Key words:anti-drone; machine vision; target detection; target tracking

近年來(lái),無(wú)人機(jī)在航拍、植保、救援、物流、軍事等領(lǐng)域得到廣泛應(yīng)用,同時(shí),出現(xiàn)大量“低慢小”無(wú)人機(jī)“黑飛”“濫飛”情況,對(duì)國(guó)防和社會(huì)安全構(gòu)成了巨大隱患。

“低慢小”無(wú)人機(jī)指在低空域(高度1 000 m以下)活動(dòng),飛行速度慢,尺寸小的無(wú)人機(jī)。低空域慢速飛行,其多普勒特征弱,雷達(dá)探測(cè)難,且城市低空域電磁環(huán)境復(fù)雜,無(wú)線電探測(cè)難;小目標(biāo)無(wú)人機(jī)飛行聲音小,音頻探測(cè)難。機(jī)器視覺(jué)作為無(wú)人機(jī)目標(biāo)檢測(cè)跟蹤的重要方式,使用攝像機(jī)捕獲監(jiān)控區(qū)域視頻,利用圖像特征對(duì)無(wú)人機(jī)進(jìn)行檢測(cè)跟蹤,系統(tǒng)成本低,探測(cè)速度快,精度高,監(jiān)控區(qū)域大,適用場(chǎng)景廣,尤其對(duì)易于拍攝的低空域目標(biāo)檢測(cè)跟蹤效果好。

機(jī)器視覺(jué)的目標(biāo)檢測(cè)方法可以分為傳統(tǒng)方法和深度學(xué)習(xí)方法。傳統(tǒng)方法通過(guò)人工設(shè)計(jì),提取圖像中特定類(lèi)型特征,定位關(guān)鍵區(qū)域,使用分類(lèi)算法檢測(cè)關(guān)鍵區(qū)域目標(biāo)類(lèi)別。由于無(wú)人機(jī)的顏色、紋理特征不明顯,而角點(diǎn)、邊緣特征較為明顯,常用的人工設(shè)計(jì)特征有方向梯度直方圖特征[1]、尺度不變特征變換[2-3]等,分類(lèi)算法主要為支持向量機(jī)。

深度學(xué)習(xí)方法通過(guò)卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),能夠更好地提取圖像深層次特征,可分為兩類(lèi):一類(lèi)通過(guò)候選區(qū)域生成、目標(biāo)分類(lèi)及邊界框調(diào)整兩步完成,為二階算法;另一類(lèi)將整個(gè)圖像均視為候選區(qū)域,用回歸的方式直接得到目標(biāo)的類(lèi)別與邊界框信息,為一階算法。Faster RCNN(region convolutional neural networks,RCNN)是經(jīng)典的二階算法,在無(wú)人機(jī)檢測(cè)的應(yīng)用中,可用雙線性差值和多尺度特征融合的方法提高小目標(biāo)無(wú)人機(jī)檢測(cè)能力[4],可用圖像超分辨率預(yù)處理得到更多語(yǔ)義信息[5]。一階算法速度較二階算法更快,從YOLO(you only look once)算法開(kāi)始得到了大量研究,在保持檢測(cè)速度的同時(shí),也具備較高的精度。應(yīng)用YOLO算法檢測(cè)無(wú)人機(jī)目標(biāo)檢測(cè),可用加權(quán)雙向特征金字塔BiFPN網(wǎng)絡(luò)替換Neck部分,增強(qiáng)不同尺寸目標(biāo)特征融合效果[6],可改進(jìn)損失函數(shù)增強(qiáng)訓(xùn)練效果[7-8]。YOLO系列算法逐漸成為無(wú)人機(jī)檢測(cè)應(yīng)用的主流算法。

為記錄無(wú)人機(jī)飛行軌跡和身份信息,傳感器需要在檢測(cè)的基礎(chǔ)上進(jìn)行跟蹤。無(wú)人機(jī)目標(biāo)跟蹤應(yīng)用較廣泛的有卡爾曼濾波、STC(spatio-temporal context)、KCF(kernelized correlation filters)及SiamFC算法??柭鼮V波算法還可以與其他算法相結(jié)合,即假設(shè)目標(biāo)運(yùn)動(dòng)過(guò)程屬于線性系統(tǒng),對(duì)跟蹤過(guò)程中的目標(biāo)狀態(tài)信息進(jìn)行預(yù)測(cè)和修正,能夠優(yōu)化復(fù)雜環(huán)境下無(wú)人機(jī)快速移動(dòng)、目標(biāo)被遮擋情況下的跟蹤性能[9-10]。上述算法為單目標(biāo)跟蹤算法,當(dāng)應(yīng)對(duì)多個(gè)無(wú)人機(jī)目標(biāo)場(chǎng)景時(shí),需要對(duì)每個(gè)目標(biāo)都進(jìn)行一次跟蹤,隨著跟蹤目標(biāo)數(shù)量增加,準(zhǔn)確率和實(shí)時(shí)性有所降低。DeepSort是基于檢測(cè)器的多目標(biāo)跟蹤算法,能夠利用深度學(xué)習(xí)算法檢測(cè)器的優(yōu)秀性能,且通過(guò)卡爾曼濾波、行人重識(shí)別ReID、級(jí)聯(lián)匹配等方法能夠較好應(yīng)對(duì)目標(biāo)快速運(yùn)動(dòng)、障礙物遮擋等情況,能夠較好地應(yīng)用于多無(wú)人機(jī)目標(biāo)跟蹤任務(wù)中。

“低慢小”無(wú)人機(jī)的飛行空域背景環(huán)境主要包括天空(云層)、樹(shù)木、建筑、陰暗條件四類(lèi),對(duì)目標(biāo)檢測(cè)具有較強(qiáng)的干擾性,加之?dāng)z像機(jī)捕獲的小型無(wú)人機(jī)像素信息較少,圖像特征較弱,容易出現(xiàn)漏檢和誤檢問(wèn)題。針對(duì)該問(wèn)題,以改進(jìn)YOLOv7算法作為DeepSort檢測(cè)器,提出復(fù)雜環(huán)境下無(wú)人機(jī)目標(biāo)檢測(cè)跟蹤算法,以自建數(shù)據(jù)集訓(xùn)練驗(yàn)證。

1 算法設(shè)計(jì)

1.1 算法基本框架

算法整體流程分為檢測(cè)和跟蹤。

(1)目標(biāo)檢測(cè)算法。框架采用的YOLOv7-tiny-SiLu模型大小僅6.2 M,在V100顯卡上使用MS COCO(microsoft common objects in context)數(shù)據(jù)集測(cè)試(輸入網(wǎng)絡(luò)像素為640*640),F(xiàn)PS(frames per second)為286,AP(Average Precision)值38.7%,與YOLOv5-N相比,速度快80%,精度高38%。在YOLOv7-tiny-SiLu算法基礎(chǔ)上,改進(jìn)的目標(biāo)檢測(cè)算法如圖1所示。

其中,注意力機(jī)制CBAM模塊(cost benefit analysis method)是增加的注意力機(jī)制、Bcat是用BiFPN拼接替換原有的拼接操作,在算法基礎(chǔ)上還增加了160尺寸特征張量的小目標(biāo)檢測(cè)層。特征提取ELAN模塊(effective long-range aggregation network)是一種高效的網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)控制最短和最長(zhǎng)的梯度路徑,使網(wǎng)絡(luò)能夠?qū)W習(xí)到更多的特征,并且具有更強(qiáng)的魯棒性。下采樣MP模塊通過(guò)最大池化和步長(zhǎng)2的卷積操作進(jìn)行下采樣,能夠得到更加豐富的特征??珉A段特征金字塔池化SPPCSP模塊(spatial pyramid pooling, cross stage partial)能夠增大感受野,適應(yīng)不同分辨率圖片,同時(shí)相比簡(jiǎn)單的SPP(spatial pyramid pooling)減少了一半計(jì)算量,精度反而有所提升。

(2)目標(biāo)跟蹤算法。Sort算法核心是卡爾曼濾波和匈牙利匹配??柭鼮V波用于軌跡的更新和預(yù)測(cè),匈牙利算法用于目標(biāo)和軌跡的匹配。由于外觀和軌跡一幀不匹配即刪除機(jī)制和交并比IOU(intersection over union, IoU)成本矩陣問(wèn)題,Sort算法ID切換較頻繁。為此,在DeepSort中引入ReID領(lǐng)域模型來(lái)提取外觀信息,以減少I(mǎi)D切換次數(shù);加入級(jí)聯(lián)匹配機(jī)制保留近期丟失目標(biāo)軌跡,并賦予優(yōu)先級(jí),提高復(fù)雜環(huán)境遮擋下跟蹤的魯棒性。流程如圖2所示。

1.2 算法改進(jìn)模塊

2 數(shù)據(jù)集構(gòu)建

數(shù)據(jù)集的質(zhì)量直接影響算法在實(shí)際無(wú)人機(jī)識(shí)別中的準(zhǔn)確性。當(dāng)前網(wǎng)絡(luò)公開(kāi)的無(wú)人機(jī)數(shù)據(jù)集有Det-Fly[13]、MIDGARD[14]、Anti-UAV[15]等,數(shù)量巨大、內(nèi)容豐富。本文針對(duì)低慢小無(wú)人機(jī)目標(biāo)檢測(cè)跟蹤的具體應(yīng)用場(chǎng)景,考慮無(wú)人機(jī)外觀多樣,不同運(yùn)動(dòng)狀態(tài)導(dǎo)致的姿態(tài)、大小不一,攝像機(jī)拍攝角度不同,復(fù)雜環(huán)境影響等因素,構(gòu)建了“低慢小”無(wú)人機(jī)數(shù)據(jù)集(low and slow UAV dataset, LSUD)。

2.1 數(shù)據(jù)收集擴(kuò)增

LSUD數(shù)據(jù)集以Det-Fly、MIDGARD、Anti-UAV數(shù)據(jù)集中特征相差明顯、具有代表性的圖片為主體,通過(guò)網(wǎng)絡(luò)搜索、自主拍攝豐富和補(bǔ)缺,共收集圖片801張,包含了不同外表形態(tài)、尺寸大小、拍攝角度、周邊環(huán)境的無(wú)人機(jī),同時(shí)加入了黑影、鳥(niǎo)類(lèi)2種常見(jiàn)干擾物體。表1給出了 LSUD數(shù)據(jù)集收集情況,圖6為數(shù)據(jù)集示例。其中,大目標(biāo)為無(wú)人機(jī)像素占圖片像素千分級(jí)以上的情況,反之為小目標(biāo),每種環(huán)境中仰拍、平拍、俯拍視角的圖片比例約為6∶1∶3,干擾物與無(wú)人機(jī)在數(shù)據(jù)集圖片中有共存現(xiàn)象。

采取圖像旋轉(zhuǎn)方式對(duì)基礎(chǔ)數(shù)據(jù)進(jìn)行擴(kuò)充,以獲得更多無(wú)人機(jī)運(yùn)動(dòng)姿態(tài)特征。由于無(wú)人機(jī)飛行過(guò)程中傾斜角度相差超過(guò)90°的情況較少,將所有圖片分別順時(shí)針和逆時(shí)針旋轉(zhuǎn)45°、90°,再人工刪除其中不符合無(wú)人機(jī)現(xiàn)實(shí)飛行情況的圖片,得到完整的數(shù)據(jù)集,共包含圖片3 977張,如圖7所示。

2.2 數(shù)據(jù)集標(biāo)注劃分

使用labelimg軟件進(jìn)行圖片標(biāo)注,完成標(biāo)注后,按照9∶1的比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集與驗(yàn)證集,即訓(xùn)練集3 579張,驗(yàn)證集398張。標(biāo)注時(shí)區(qū)分不同形態(tài)的無(wú)人機(jī),按照無(wú)人機(jī)圖像特征,在標(biāo)注中進(jìn)一步劃分為UAV、UAV_L、UAV_M、UAV_S、UAV_D五類(lèi)標(biāo)簽,劃分依據(jù)如表2所示,部分?jǐn)?shù)據(jù)圖片標(biāo)注情況如圖8所示。

3 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)軟件為PyCharm2020、Pytorch1.7、Python3.8。算法訓(xùn)練平臺(tái)條件:操作系統(tǒng)Linux ubuntu,處理器Intel(R) Xeon(R) Platinum 8358P,內(nèi)存80 G,顯卡A40,顯存48 G。算法驗(yàn)證平臺(tái)條件:操作系統(tǒng)Windows10,處理器Intel(R) Core(TM) i5-8400,內(nèi)存8 G,顯卡NVDIA GeForce RTX2070,顯存8 G。非極大值抑制參數(shù)設(shè)置:類(lèi)別置信度閾值為0.2,IoU閾值為0.4。

3.1 算法檢測(cè)性能驗(yàn)證

使用訓(xùn)練集在沒(méi)有預(yù)訓(xùn)練權(quán)重的基礎(chǔ)上,分別對(duì)原始YOLOv7算法和改進(jìn)算法訓(xùn)練400輪,而后使用驗(yàn)證集進(jìn)行驗(yàn)證。

3.1.1 評(píng)價(jià)指標(biāo)

3.1.2 消融實(shí)驗(yàn)及結(jié)果

消融實(shí)驗(yàn)中,各類(lèi)無(wú)人機(jī)AP0.5指標(biāo)及見(jiàn)表3和圖9。訓(xùn)練過(guò)程如圖10所示。與YOLOv7算法相比,改進(jìn)的算法的mAP@0.5提高了8.6%,尤其是無(wú)人機(jī)特征較弱的UAV_S、UAV_M兩種類(lèi)型目標(biāo)檢測(cè)性能提升最大,AP0.5分別提升了21%和22%。可見(jiàn)通過(guò)改進(jìn),算法的性能得到了較高提升,更能夠適應(yīng)復(fù)雜環(huán)境下不同形態(tài)的無(wú)人機(jī)目標(biāo)檢測(cè)。圖11是用驗(yàn)證集驗(yàn)證時(shí),算法輸出的部分圖片示例。

3.2 算法跟蹤性能驗(yàn)證

使用數(shù)據(jù)集訓(xùn)練改進(jìn)的YOLOv7+DeepSort整體算法,而后利用兩段視頻test01.mp4、test02.mp4進(jìn)行跟蹤性能檢驗(yàn)。其中,test01.mp4共4 080幀,目標(biāo)為UAV_S小型無(wú)人機(jī);test02.mp4共5 333幀,包含了小型無(wú)人機(jī)目標(biāo)及樹(shù)木遮擋的復(fù)雜場(chǎng)景。使用DarkLabel軟件對(duì)視頻進(jìn)行標(biāo)注。測(cè)試視頻標(biāo)注情況如圖12所示。

3.2.1 評(píng)價(jià)指標(biāo)

3.2.2 實(shí)驗(yàn)結(jié)果

YOLOv7+DeepSort算法在兩個(gè)測(cè)試視頻中的MOTA指標(biāo)平均值為48.8%,改進(jìn)后為60.6%,性能提升了24%。具體結(jié)果見(jiàn)表4。

準(zhǔn)確性方面,算法在小目標(biāo)跟蹤上MOTA指標(biāo)提升了112%,正確輸出的目標(biāo)框數(shù)量增加了1 207個(gè),同時(shí),算法在應(yīng)對(duì)小目標(biāo)和嚴(yán)重遮擋條件下正確輸出的目標(biāo)框占真實(shí)目標(biāo)框的比例均為70%左右,能夠?qū)崿F(xiàn)無(wú)人機(jī)目標(biāo)飛行軌跡記錄,且性能更加穩(wěn)定。

實(shí)時(shí)性方面,輸入圖片按比例將最長(zhǎng)邊縮放為640像素,處理速度為26幀/s,實(shí)際應(yīng)用中,將捕獲視頻每?jī)蓭幚硪淮危軌驅(qū)崿F(xiàn)無(wú)人機(jī)的實(shí)時(shí)檢測(cè)跟蹤。

4 結(jié)束語(yǔ)

本文將YOLOv7算法引入CBAM注意力模塊、BiFPN加權(quán)特征金字塔網(wǎng)絡(luò)以及小目標(biāo)檢測(cè)層,并將改進(jìn)的YOLOv7與DeepSort相結(jié)合。在自建數(shù)據(jù)集上測(cè)試,提出算法具備更好的檢測(cè)跟蹤性能,能夠?qū)崿F(xiàn)復(fù)雜環(huán)境下無(wú)人機(jī)目標(biāo)的準(zhǔn)確實(shí)時(shí)跟蹤,具體體現(xiàn)在:

(1)在YOLOv7主干網(wǎng)絡(luò)引入CBAM注意力機(jī)制,增強(qiáng)網(wǎng)絡(luò)特征提取能力。

(2)將YOLOv7Neck部分的PANet用加權(quán)特征金字塔BiFPN替換,提高網(wǎng)絡(luò)特征融合能力,提高不同尺寸無(wú)人機(jī)目標(biāo)檢測(cè)精度。

(3)新增一個(gè)小目標(biāo)檢測(cè)層,提高復(fù)雜環(huán)境下的小尺寸弱特征無(wú)人機(jī)目標(biāo)檢測(cè)精度。

(4)通過(guò)網(wǎng)絡(luò)搜索和自主拍攝構(gòu)建了云層、建筑、樹(shù)木、陰暗等不同復(fù)雜背景復(fù)雜環(huán)境下的多姿態(tài)無(wú)人機(jī)數(shù)據(jù)集。訓(xùn)練和測(cè)試結(jié)果表明,改進(jìn)算法的檢測(cè)性能指標(biāo)AP0.5=0.785,提升了8.6%,尤其復(fù)雜環(huán)境下小尺寸、弱特征的目標(biāo)檢測(cè)精度提高了約21%,跟蹤性能指標(biāo)MOTA=0.488,提升了24%,正確輸出的目標(biāo)框占真實(shí)目標(biāo)框的比例約70%,能夠?qū)崿F(xiàn)復(fù)雜環(huán)境下無(wú)人機(jī)目標(biāo)的及時(shí)預(yù)警和軌跡記錄。

參考文獻(xiàn):

[1] 樊寬剛, 雷爽, 別同. 智能化無(wú)人機(jī)入侵檢測(cè)與跟蹤攔截系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J]. 紅外與激光工程, 2022, 51(8): 351-360.FAN K G, LEI S, BIE T. Design and implementation of intelligent UAV intrusion detection, tracking and interception system[J]. Infrared and Laser Engineering, 2022, 51(8): 351-360.

[2] 薛珊, 張振, 呂瓊瑩, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的反無(wú)人機(jī)系統(tǒng)圖像識(shí)別方法[J]. 紅外與激光工程, 2020, 49(7): 250-257.XUE S, ZHANG Z, LYU Q Y, et al. Image recognition method of anti UAV system based on convolutional neural network[J]. Infrared and Laser Engineering, 2020, 49(7): 250-257.

[3] 張振. 反無(wú)人機(jī)系統(tǒng)圖像智能識(shí)別關(guān)鍵技術(shù)研究[D]. 長(zhǎng)春: 長(zhǎng)春理工大學(xué), 2021.ZHANG Z. Research on key technologies of intelligent image recognition for anti-UAV system[D].Changchun: Changchun University of Science and Technology, 2021.

[4] 王君, 張德育, 康鑫英. 改進(jìn)Faster-RCNN的低空小型無(wú)人機(jī)檢測(cè)方法[J]. 沈陽(yáng)理工大學(xué)學(xué)報(bào), 2021, 40(4): 23-28.WANG J, ZHANG D Y, KANG X Y. Improved detection method of low altitude small UAV by faster-RCNN[J]. Journal of Shenyang Ligong University, 2021, 40(4): 23-28.

[5] MAGOULIANITIS V, ATALOGLOU D, ZARPALAS D, et al. Does deep super-resolution enhance UAV detection?[C]//2019 16th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). IEEE, 2019.

[6] LIU R, XIAO Y, LI Z, et al. Research on the anti-UAV distributed system for airports: YOLOv5-based auto-targeting device[C]//2022 3rd International Conference on Computer Vision, Image and Deep Learning and International Conference on Computer Engineering and Applications. IEEE, 2022.

[7] 李斌, 張彩霞, 楊陽(yáng), 等. 復(fù)雜場(chǎng)景下深度表示的無(wú)人機(jī)目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2020, 56(15): 118-123.LI B, ZHANG C X, YANG Y, et al. Drone target detection algorithm for depth representation in complex scene[J]. Computer Engineering and Applications, 2020, 56(15): 118-123.

[8] LIU B, LUO H. An improved Yolov5 for multi-rotor UAV detection[J]. Electronics, 2022, 11(5): 2 330.

[9] 任永平.反無(wú)人機(jī)系統(tǒng)中目標(biāo)探測(cè)跟蹤技術(shù)研究[D].西安:西安工業(yè)大學(xué),2019.REN Y P. Research on target detection and tracking technology for anti-UAV system[D]. Xian: Xian technological University, 2020.

[10]王元皓. 基于深度學(xué)習(xí)的動(dòng)態(tài)小目標(biāo)檢測(cè)追蹤技術(shù)研究及系統(tǒng)實(shí)現(xiàn)[D]. 西安: 西安電子科技大學(xué), 2020.WANG Y H. Research and system implementation of dynamic small target detection and tracking technology based on deep learning[D].Xian: Xidian University, 2020.

[11]WOO S, PARK J, LEE J Y. CBAM: Convolutional block attention module[J]. Lecture Notes in Computer Science, 2018, 11211:3-19.

[12]Tan M, Pang R, Le Q V . Efficient Det: scalable and efficient object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020.

[13]ZHENG Y, CHEN Z, LYU D L, et al. Air-to-Air visual detection of micro-UAVs: an experimental evaluation of deep learning[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 1 020-1 027.

[14]WALTER V, VRBA M, SASKA M. On training datasets for machine learning-based visual relative localization of micro-scale UAVs[C]// 2020 IEEE International Conference on Robotics and Automation (ICRA), Paris, IEEE, 2020.

[15]JIANG Nan, WANG Kuiran, PENG Xiaoke, et al. Anti-UAV: a large-scale benchmark for vision-based UAV tracking[J]. IEEE Transactions on Multimedia, 2021, 35(1): 486-500.

(責(zé)任編輯:李楠)

猜你喜歡
目標(biāo)跟蹤目標(biāo)檢測(cè)機(jī)器視覺(jué)
多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
視頻中目標(biāo)檢測(cè)算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
大場(chǎng)景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
基于機(jī)器視覺(jué)的工件鋸片缺陷檢測(cè)系統(tǒng)設(shè)計(jì)
軟件工程(2016年8期)2016-10-25 15:55:22
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
基于機(jī)器視覺(jué)技術(shù)的動(dòng)態(tài)“白帶”常規(guī)檢測(cè)系統(tǒng)的開(kāi)發(fā)
科技視界(2016年20期)2016-09-29 11:11:40
機(jī)器視覺(jué)技術(shù)在煙支鋼印檢測(cè)中的應(yīng)用
基于P3電位的目標(biāo)檢測(cè)研究
科技視界(2016年4期)2016-02-22 13:09:19
茌平县| 牡丹江市| 定日县| 灯塔市| 晋城| 石嘴山市| 安阳市| 莲花县| 朝阳县| 遵义市| 六安市| 德格县| 尚志市| 漯河市| 汉中市| 霞浦县| 平定县| 温州市| 兴宁市| 乌鲁木齐市| 南康市| 彭州市| 息烽县| 夹江县| 龙海市| 阿拉善盟| 迁安市| 察隅县| 渝中区| 高唐县| 江源县| 中方县| 清水河县| 桐柏县| 昭通市| 新昌县| 文山县| 称多县| 北京市| 广河县| 达日县|