張 偉,周旗開,李睿智,牛 福
(軍事科學(xué)院系統(tǒng)工程研究院,北京 100166)
近年來,隨著人工智能和深度學(xué)習(xí)等計算機(jī)技術(shù)的快速發(fā)展,目標(biāo)檢測技術(shù)在各行各業(yè)大放異彩,在軍用和民用領(lǐng)域均得到了廣泛應(yīng)用[1]。在軍用領(lǐng)域,偽裝技術(shù)已經(jīng)成為現(xiàn)代戰(zhàn)爭中用于迷惑敵方、干擾敵人偵查的重要手段之一,而軍事目標(biāo)檢測算法也在戰(zhàn)場態(tài)勢感知、快速識別敵方潛在目標(biāo)等方面具有重要的戰(zhàn)略意義。在民用領(lǐng)域,目標(biāo)檢測算法已經(jīng)在人臉識別、視頻監(jiān)控、自動駕駛、醫(yī)學(xué)圖像分析等方面發(fā)揮了重要的作用,對提高公共安全、減少人力及資本的消耗具有重要的現(xiàn)實(shí)意義[2-3]。尤其在緊急救援中,具備目標(biāo)搜索與定位功能的救援機(jī)器人和搜救無人機(jī)發(fā)揮了重大作用,救援機(jī)器人能夠在復(fù)雜多變的災(zāi)害現(xiàn)場以及窄小空間快速識別和定位幸存者并實(shí)施救援工作,搜救無人機(jī)可以自動搜索和定位來自森林及大海等大面積內(nèi)的失聯(lián)船只和人員,可大大提高人員搜救效率[4]。
通常情況下,軍事偽裝目標(biāo)所處的野外環(huán)境較為復(fù)雜,例如山川、雪地、荒漠以及灌木叢等,都可能藏有各式各樣的軍事目標(biāo),這些均給現(xiàn)有的目標(biāo)檢測算法帶來了巨大挑戰(zhàn)。經(jīng)研究,偽裝人體目標(biāo)檢測任務(wù)的難度主要有以下2點(diǎn):(1)偽裝目標(biāo)的辨識度非常低、隱蔽性非常高,由于自身顏色、紋路以及圖案的多樣性,偽裝目標(biāo)與周圍背景高度融合,區(qū)分度低;(2)重疊遮擋情況嚴(yán)重,重疊遮擋會使目標(biāo)檢測算法難以充分提取偽裝特征信息,進(jìn)而導(dǎo)致檢測精度下降。因此,如果能研發(fā)出精度高、泛化能力強(qiáng)的目標(biāo)檢測算法,將對戰(zhàn)場搜救領(lǐng)域目標(biāo)快速搜索定位具有重要的現(xiàn)實(shí)意義[5]。
目前,基于深度學(xué)習(xí)的軍事目標(biāo)檢測算法主要分為2類:一類是雙階段檢測算法,其原理是先劃分目標(biāo)候選區(qū)域,再進(jìn)行分類與回歸,代表算法有區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(region-based convolutional neural network,R-CNN)、Fast R-CNN以及Faster R-CNN等;另一類是單階段檢測算法,采用一個網(wǎng)絡(luò)直接對目標(biāo)進(jìn)行分類與回歸,代表算法有EfficienctNet、RetinaNet以及YOLO系列等。但目前有關(guān)偽裝人員檢測方面的研究較為匱乏,鄧小桐等[6]在RetinaNet算法的基礎(chǔ)上引入了模仿人類視覺的注意力機(jī)制,有效實(shí)現(xiàn)了對迷彩偽裝人員的檢測。梁新宇等[7]結(jié)合多尺度特征提取和多層次注意力機(jī)制提出了迷彩偽裝目標(biāo)語義分割網(wǎng)絡(luò)(camouflage semantic segmentation network,CSS-Net),提高了野外戰(zhàn)場環(huán)境下迷彩偽裝目標(biāo)分割的準(zhǔn)確性。以上研究雖然對于偽裝人體目標(biāo)檢測任務(wù)在檢測精度方面均有一定提升,但在實(shí)際應(yīng)用方面,通常需要同時考慮到算法的檢測精度以及模型輕量化程度,所以如何保證在對復(fù)雜環(huán)境偽裝人體目標(biāo)精確識別的前提下,使網(wǎng)絡(luò)模型更加輕量化是一個值得深入研究的課題。
基于此,本文提出一種基于注意力機(jī)制的目標(biāo)檢測算法Transformer-CBAM-YOLOv5s(以下簡稱“TC-YOLOv5s”)。首先,針對復(fù)雜環(huán)境下偽裝人體目標(biāo)的特點(diǎn),選擇以YOLOv5s為基本框架,分別在特征提取網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)末端嵌入自注意力模塊Transformer,強(qiáng)化算法對圖像全局信息的提取,建立所有像素之間的依賴關(guān)系,增強(qiáng)偽裝人體目標(biāo)與環(huán)境背景的辨識能力;其次,在特征融合網(wǎng)絡(luò)中通過添加卷積注意力機(jī)制模塊(convolutional block attention module,CBAM),進(jìn)一步加強(qiáng)算法對偽裝人體目標(biāo)特征的提取能力,削弱對周圍環(huán)境的關(guān)注度,有效提高算法的抗背景干擾能力。通過增加注意力機(jī)制,使算法具備和人眼一樣的敏銳觀察能力,強(qiáng)化網(wǎng)絡(luò)對重疊、遮擋目標(biāo)的精確檢測與識別,以提高對迷彩偽裝人員的檢測精度。
YOLOv5算法[8]是目前熱門且優(yōu)秀的單階段檢測算法之一,該算法由輸入端、主干特征提取網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)以及預(yù)測端4個部分組成。YOLOv5算法的第1部分是輸入端,輸入圖片的大小一般為640×640像素。第2部分為主干特征提取網(wǎng)絡(luò),主要由Focus、Conv、C3以及空間金字塔池化(spatial pyramid pooling,SPP)[9]等結(jié)構(gòu)組成,其中Focus結(jié)構(gòu)用于保留更多的特征信息;Conv結(jié)構(gòu)為基本的卷積過程,主要在輸入特征圖上執(zhí)行二維卷積、正則化和激活等3種操作;C3結(jié)構(gòu)由若干個Bottleneck模塊組成,Bottleneck為一種經(jīng)典殘差結(jié)構(gòu),輸入經(jīng)過2層卷積層后與原始值進(jìn)行Add操作,在不增加輸出深度的同時完成殘差特征傳遞;SPP結(jié)構(gòu)為空間金字塔池化層,SPP對輸入執(zhí)行3種不同尺寸的最大池化操作,并將輸出結(jié)果進(jìn)行Concat融合拼接,進(jìn)而使網(wǎng)絡(luò)輸出深度與輸入深度相同。第3部分為特征融合網(wǎng)絡(luò),由特征金字塔網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN)[10]與路徑聚合網(wǎng)絡(luò)(path aggregation networks,PANet)[11]組成,兩者的結(jié)合進(jìn)一步提高了模型對目標(biāo)特征的關(guān)注度。第4部分為預(yù)測端,3個預(yù)測層分別對應(yīng)大、中、小等多個尺度目標(biāo)的檢測與識別。YOLOv5算法結(jié)構(gòu)如圖1所示。YOLOv5算法根據(jù)網(wǎng)絡(luò)層數(shù)不同共有s、m、l和x 4種版本,結(jié)構(gòu)層數(shù)變化主要是通過改變深度倍數(shù)和寬度倍數(shù)2個參數(shù)來實(shí)現(xiàn),其中YOLOv5s網(wǎng)絡(luò)層數(shù)最少,結(jié)構(gòu)更簡單,速度也最快。
圖1 YOLOv5算法結(jié)構(gòu)
雖然YOLOv5算法是當(dāng)下典型的單階段目標(biāo)檢測算法之一,對常規(guī)目標(biāo)的檢測效果非常出色,但在復(fù)雜背景下的迷彩偽裝人員檢測任務(wù)中,由于圖片中的復(fù)雜環(huán)境背景通常占據(jù)較多,在提取特征信息的過程中極易產(chǎn)生多余的環(huán)境背景信息,導(dǎo)致算法難以有效提取目標(biāo)特征信息,并且隨著網(wǎng)絡(luò)結(jié)構(gòu)的不斷加深,使得目標(biāo)特征信息嚴(yán)重丟失,最終造成目標(biāo)檢測效果不佳的結(jié)果。因此,本研究針對迷彩偽裝人員的高隱蔽性、低判別性以及重疊遮擋等特點(diǎn),提出了一種基于注意力機(jī)制的偽裝目標(biāo)檢測算法TC-YOLOv5s,有效改善了原始YOLOv5算法中存在的不足,并實(shí)現(xiàn)了對復(fù)雜環(huán)境下迷彩偽裝人員的精確識別與快速定位。TC-YOLOv5s算法結(jié)構(gòu)如圖2所示。
圖2 TC-YOLOv5s算法結(jié)構(gòu)
1.2.1 Transformer模塊
自2018年Transformer模塊[12]被提出以來,其被廣泛用于語音識別、機(jī)器翻譯以及強(qiáng)化學(xué)習(xí)等眾多領(lǐng)域,比如自編碼語言模型和自回歸語言模型等。由于Transformer模塊在自然語言處理方面具有優(yōu)異的表現(xiàn),目前研究者們將其應(yīng)用于圖像識別、目標(biāo)檢測和圖像處理等計算機(jī)視覺領(lǐng)域,與當(dāng)下流行的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)相比,Transformer模塊表現(xiàn)出了十分出色的檢測性能[13]。
目前,CNN與自注意力模塊相結(jié)合的模式得到了廣泛應(yīng)用,如通過增強(qiáng)特征圖來進(jìn)行邊緣分類或者通過在卷積網(wǎng)絡(luò)的最后一層添加自注意力機(jī)制模塊來強(qiáng)化計算機(jī)視覺任務(wù)的檢測精度。Transformer模塊由編碼器和譯碼器進(jìn)行特征提取,因為基于視覺的Transformer模塊僅僅用于圖像的識別,所以只需要經(jīng)過編碼器來進(jìn)行特征的提取,在此基礎(chǔ)上利用主干網(wǎng)絡(luò)來提取圖像特征,然后通過位置編碼將其轉(zhuǎn)換成序列,并將其輸入到Transformer模塊編碼器中。其中,編碼器由多頭自注意力機(jī)制、多層感知機(jī)以及層標(biāo)準(zhǔn)化等結(jié)構(gòu)組成。
基于視覺的Transformer模塊結(jié)構(gòu)圖如圖3所示,該模塊是一種具有很強(qiáng)建模功能的自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò),通過自注意力機(jī)制從全局方面對圖片中的近似特征進(jìn)行自適應(yīng)聚合,進(jìn)一步提高了算法的特征提取能力。對于環(huán)境背景復(fù)雜且重疊遮擋的偽裝人體目標(biāo),利用Transformer模塊可以增強(qiáng)對全局信息的提取,建立像素間的相關(guān)性,從而解決CNN僅關(guān)注局部信息、相鄰像素且整體信息獲取能力差等問題,同時可以增強(qiáng)迷彩偽裝目標(biāo)與環(huán)境背景的辨識能力?;谝曈X的Transformer模塊的計算如公式(1)~(2)所示:
圖3 Transformer模塊結(jié)構(gòu)圖
式中,X表示輸入特征圖;fq、fk、fv代表線性映射函數(shù);Q、K、V分別表示查詢值矩陣、鍵值矩陣以及權(quán)重值矩陣;Attention代表自注意力;softmax為歸一化指數(shù)函數(shù);d表示輸入數(shù)據(jù)維度。由于基于視覺的Transformer模塊的運(yùn)算復(fù)雜度通常與輸入特征圖大小的平方成正比,因此在神經(jīng)網(wǎng)絡(luò)末端位置加入Transformer模塊可有效提高模型的整體感知能力,同時計算量也相對較小。本研究的改進(jìn)之處主要是將Transformer模塊與YOLOv5s算法中主干特征提取網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)末端的C3模塊進(jìn)行融合,提升復(fù)雜環(huán)境下對遮擋目標(biāo)物的精確識別,從而提高YOLOv5s算法對復(fù)雜環(huán)境下偽裝人體目標(biāo)的檢測性能。
1.2.2 CBAM
CBAM[10]作為簡單而高效的注意力組件,是一種將空間和通道注意力相結(jié)合的即插即用模塊。相比于只關(guān)注通道的注意力模塊,CBAM可以取得更好的效果[14]。CBAM首先將輸入特征圖沿通道和空間2個方向分別計算出注意力特征圖,并將其與輸入特征圖相乘最終實(shí)現(xiàn)對目標(biāo)特征信息提取的最優(yōu)化。由于CBAM是一個輕量級的網(wǎng)絡(luò)組件,所以可以忽略其運(yùn)算量,將其嵌入到任何的CNN體系結(jié)構(gòu)中進(jìn)行訓(xùn)練,能夠使網(wǎng)絡(luò)像人眼一樣去觀察興趣目標(biāo)。CBAM結(jié)構(gòu)如圖4所示,其主要由通道注意力模塊和空間注意力模塊2個部分組成。
圖4 CBAM結(jié)構(gòu)圖
隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的增加,待檢測目標(biāo)的特征信息也在逐漸丟失。因此,本研究基于以上改進(jìn)將CBAM添加到Y(jié)OLOv5s算法的特征融合網(wǎng)絡(luò)中,進(jìn)一步加強(qiáng)了模型對興趣目標(biāo)區(qū)域的關(guān)注,解決了深層網(wǎng)絡(luò)缺乏注意力偏好導(dǎo)致的偽裝人體目標(biāo)特征信息丟失的問題,從而提高目標(biāo)被檢測到的概率。CBAM的計算如公式(3)~(4)所示:
式中,F(xiàn)∈Rc×h×w,為輸入特征圖(c表示輸入特征圖通道數(shù),h、w分別表示輸入特征圖的高度和寬度);F'為經(jīng)過通道注意力模塊加權(quán)得到的特征圖;F''為經(jīng)過空間注意力模塊加權(quán)得到的特征圖;Mc(F)為通道注意力輸出權(quán)值;Ms(F')為空間注意力輸出權(quán)值;符號?表示對應(yīng)元素兩兩相乘。
為了驗證本研究改進(jìn)算法在復(fù)雜多變的戰(zhàn)場及搜救環(huán)境中的有效性,實(shí)驗過程中選用軍事偽裝人員數(shù)據(jù)集(military camouflage personnel dataset,MCPD)進(jìn)行訓(xùn)練。MCPD[15]主要以互聯(lián)網(wǎng)上60多種野外環(huán)境下的迷彩偽裝拍攝視頻為原始素材,通過視頻取幀方式共截取10 000張迷彩偽裝人體目標(biāo)圖像(分辨力大小為1 280×720),其中包含來自多個國家的迷彩偽裝服飾。為了避免制作數(shù)據(jù)集過程對算法檢測效果的影響,考慮不同方位、不同角度以及人體目標(biāo)大小、姿態(tài)和清晰度等因素對數(shù)據(jù)集圖像進(jìn)行層層篩選,以保留質(zhì)量較高的軍事偽裝目標(biāo)圖像。
經(jīng)過嚴(yán)格篩選后,MCPD一共包含1 000張高清圖像(每張圖片包含1~3個偽裝人體目標(biāo)),然后使用圖像標(biāo)注工具LabelImg對每張圖片中的人體目標(biāo)進(jìn)行標(biāo)定,采集的偽裝目標(biāo)圖像以單類別目標(biāo)為主。本研究構(gòu)建的MCPD有以下幾個特點(diǎn):(1)目標(biāo)辨識度低和隱蔽性高;(2)目標(biāo)尺度不同,包含大、中、小等多尺度的偽裝人體目標(biāo);(3)目標(biāo)姿態(tài)各異,包含站立、半蹲、臥倒、正面、背身及側(cè)身等多種姿態(tài);(4)環(huán)境背景復(fù)雜,包括叢林、雨林、山地、荒漠、雪地以及城市廢墟等6種野外復(fù)雜環(huán)境,同時也涉及不同季節(jié)、不同天氣、不同光照以及部分遮擋等影響因素。MCPD中部分圖像樣例如圖5所示。
圖5 MCPD中部分圖像樣例
本文選擇準(zhǔn)確率P、召回率R、平均準(zhǔn)確率均值mAP、模型大小以及每秒檢測圖像數(shù)量FPS作為TCYOLOv5s檢測算法的綜合性能評價指標(biāo)。FPS(幀/s)是在服務(wù)器Tesla P100顯卡環(huán)境下,對測試集200張圖像的檢測時間求平均值得到。其中,P、R以及mAP的計算公式如(5)~(8)所示:
式中,TP為原本為正類且被劃分為正類的樣本;TN為原本為負(fù)類且被劃分為負(fù)類的樣本;FP為原本為負(fù)類但被劃分為正類的樣本;FN為原本為正類但被劃分為負(fù)類的樣本;平均準(zhǔn)確率AP是對所有的準(zhǔn)確率進(jìn)行平均(即PR曲線下的面積);mAP是對每個分類AP進(jìn)行平均,交并比IOU閾值設(shè)為0.5時求得的mAP為mAP0.5;C表示類別的數(shù)目;k表示一個類別。
本實(shí)驗是基于YOLOv5(5.0版本)官方開源項目進(jìn)行開展,使用YOLOv5s模型為基本配置,計算機(jī)CPU處理器為Intel?Xeon?Gold 6130(內(nèi)存大小為31 GiB),操作系統(tǒng)為Ubuntu 18.04,Python版本為3.8;深度學(xué)習(xí)框架為Pytorch 1.8.0。所有實(shí)驗均在同一塊Tesla P100顯卡(大小為15 GiB)上進(jìn)行,實(shí)驗中使用并行計算架構(gòu)和圖形處理器加速庫進(jìn)行加速訓(xùn)練,以提高計算機(jī)的計算能力。
訓(xùn)練前,將MCPD隨機(jī)分為訓(xùn)練集、驗證集和測試集,劃分比例為6∶2∶2。為了充分訓(xùn)練改進(jìn)的網(wǎng)絡(luò)模型,防止神經(jīng)網(wǎng)絡(luò)過擬合,訓(xùn)練中采用多種數(shù)據(jù)增強(qiáng)方式對MCPD進(jìn)行擴(kuò)充,其中包括顏色變換、左右翻轉(zhuǎn)、平移縮放以及馬賽克(Mosaic)等。
訓(xùn)練次數(shù)(Epochs)設(shè)置為100,最大訓(xùn)練批次(Batch Size)設(shè)為32,輸入圖像的大小為640×640像素,初始學(xué)習(xí)率為0.000 1,學(xué)習(xí)率動量以及權(quán)重衰減系數(shù)分別設(shè)置為0.937、0.000 5,優(yōu)化策略選擇Adam優(yōu)化器[16]。輸出預(yù)測結(jié)果后,采用非極大抑制算法進(jìn)行預(yù)測框篩選。
本研究共開展2組實(shí)驗進(jìn)行驗證,分別為不同的改進(jìn)模塊消融對比實(shí)驗與不同的算法對比實(shí)驗,現(xiàn)分別進(jìn)行介紹。
3.3.1消融對比實(shí)驗
為了檢驗改進(jìn)算法的檢測效果,開展了消融對比實(shí)驗,分別引入Transformer模塊和CBAM到原始YOLOv5s算法,消融對比實(shí)驗結(jié)果詳見表1。
從表1中的數(shù)據(jù)可以看出,單獨(dú)引入Transformer模塊后,算法的P、R以及mAP0.5分別提高了3.3%、5.2%、3.2%,由于在設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)時考慮了Transformer模塊的復(fù)雜度,選擇在主干特征提取網(wǎng)絡(luò)以及特征融合網(wǎng)絡(luò)末端將其引入,所以改進(jìn)算法不僅沒有改變模型大小,且浮點(diǎn)運(yùn)算量相比原YOLOv5s算法更少。不僅如此,引入Transformer模塊強(qiáng)化了算法對全局信息的提取能力,有效提高了在復(fù)雜環(huán)境下對偽裝人體目標(biāo)的檢測精度。單獨(dú)引入CBAM到特征融合網(wǎng)絡(luò)中,解決了深層網(wǎng)絡(luò)缺乏注意力的問題,提高了網(wǎng)絡(luò)對目標(biāo)位置、方向等特征信息的捕獲能力,使得算法的P、R以及mAP0.5也分別提高了1.2%、1.4%、1.3%,進(jìn)一步提高了對迷彩偽裝目標(biāo)的檢測效果。而引入Transformer模塊和CBAM后算法(即TC-YOLOv5s算法)的mAP0.5提高了4.8%,與原算法相比各項評價指標(biāo)均得到了大幅提升,表明在迷彩偽裝人員檢測任務(wù)中加入Transformer模塊和CBAM,可有效加強(qiáng)全局信息和局部上下文信息的提取和融合,增強(qiáng)網(wǎng)絡(luò)對偽裝人體目標(biāo)區(qū)域的關(guān)注度,削弱對圖像中復(fù)雜背景信息的提取,從而達(dá)到良好的檢測效果。綜上所述,本研究改進(jìn)的算法能有效提高復(fù)雜環(huán)境下迷彩偽裝人員的檢測精度。
表1 消融對比實(shí)驗結(jié)果
3.3.2 不同檢測算法對比實(shí)驗
為了進(jìn)一步驗證本研究改進(jìn)算法的檢測效果,將改進(jìn)算法與幾種主流的目標(biāo)檢測算法RetinaNet、YOLOX-s、YOLOv5s、YOLOv5m以及YOLOv5l進(jìn)行了比較。實(shí)驗中使用的數(shù)據(jù)集及平臺配置條件相同,檢測性能比較結(jié)果詳見表2。從表2的數(shù)據(jù)可以看出,改進(jìn)算法TC-YOLOv5s的大小為14.5 MiB,僅比原始的YOLOv5s算法多0.1 MiB,且檢測速度降低了34.1幀/s,然而改進(jìn)算法對軍事偽裝目標(biāo)的檢測準(zhǔn)確率提高了4.8%。與RetinaNet、YOLOX-s、YOLOv5m以及YOLOv5l等4種優(yōu)秀算法相比,TC-YOLOv5s更加輕量化,并且在mAP和推理速度方面均優(yōu)于上述算法。從總體上來看,改進(jìn)算法對偽裝人體目標(biāo)的檢測性能最好。
表2 不同算法的檢測性能
本研究改進(jìn)算法TC-YOLOv5s以及YOLOv5s、YOLOv5l、YOLOX-s在叢林、雪地、山地等典型背景下對迷彩偽裝人員的檢測結(jié)果如圖6所示。
從圖6中可以看出,與原始算法YOLOv5s及其他先進(jìn)算法相比,改進(jìn)算法的檢測精度更高,能有效捕獲到迷彩偽裝人員的特征信息,具有較好的魯棒性。結(jié)果表明,本研究改進(jìn)算法具有較強(qiáng)的泛化能力,能夠有效識別和準(zhǔn)確定位迷彩偽裝人員。
圖6 4種算法檢測結(jié)果對比
本研究針對復(fù)雜環(huán)境下目標(biāo)檢測任務(wù)中偽裝人體目標(biāo)與周圍背景高度一體化、辨識度低而導(dǎo)致誤檢和漏檢的問題,提出了一種基于注意力機(jī)制的迷彩偽裝人員檢測算法TC-YOLOv5s。該算法分別在主干特征提取網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)末端嵌入Transformer模塊,并在特征融合網(wǎng)絡(luò)中引入CBAM,兩者的結(jié)合不僅提高了算法對圖像全局特征信息的提取,還有效解決了深層網(wǎng)絡(luò)缺乏注意力偏好導(dǎo)致的偽裝人體目標(biāo)特征信息丟失的問題,從而進(jìn)一步提高了算法對復(fù)雜環(huán)境下迷彩偽裝人員的識別能力。實(shí)驗結(jié)果表明,與原始的YOLOv5s檢測算法相比,TC-YOLOv5s算法的P、R以及mAP0.5分別提升了0.9%、4.7%、4.8%,在保證模型大小不變的情況下,以較小的計算量大幅提升了其對復(fù)雜環(huán)境下偽裝人體目標(biāo)的檢測性能,將其應(yīng)用到救援機(jī)器人或搜救無人機(jī)等裝備中,可大大提高人員搜救效率。
雖然改進(jìn)算法TC-YOLOv5s對于迷彩偽裝人員的檢測精度比原始YOLOv5s算法有所提升,但實(shí)現(xiàn)算法在移動端的嵌入以及模型輕量化等方面還有待提升。未來將進(jìn)一步探索如何減少網(wǎng)絡(luò)模型參數(shù)量以及提升算法的檢測精度和檢測速率,從而解決偽裝人體目標(biāo)與周圍環(huán)境難以辨識的問題。