国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于邊緣感知的深度神經(jīng)網(wǎng)絡(luò)紅外裝甲目標檢測

2021-08-31 01:03:30盛大俊
紅外技術(shù) 2021年8期
關(guān)鍵詞:邊緣語義特征

盛大俊,張 強

基于邊緣感知的深度神經(jīng)網(wǎng)絡(luò)紅外裝甲目標檢測

盛大俊1,張 強2

(1. 信陽學(xué)院 大數(shù)據(jù)與人工智能學(xué)院,河南 信陽 464000;2. 中國人民解放軍空軍第一航空學(xué)院,河南 信陽 464000)

裝甲目標自動檢測一直是紅外制導(dǎo)領(lǐng)域的研究熱點與難點。解決該問題的傳統(tǒng)方法是提取目標的低層次特征,并對特征分類器進行訓(xùn)練。然而,由于傳統(tǒng)的檢測算法不能覆蓋所有的目標模式,在實際應(yīng)用中的檢測性能受到限制。本文受邊緣感知模型的啟發(fā),提出了一種基于邊緣感知的改進深度網(wǎng)絡(luò),該網(wǎng)絡(luò)是通過邊緣感知融合模塊提升裝甲輪廓精度,利用特征提取模塊和上下文聚合模塊的優(yōu)勢,能夠更好地適應(yīng)目標的形態(tài)變化,具有較高的檢測與識別的精度。驗證結(jié)果表明,本文提出的裝甲檢測網(wǎng)絡(luò)模型可以有效地提高紅外圖像中裝甲的檢測與定位精度。

裝甲車輛;紅外圖像;目標檢測;邊緣感知;自尋的導(dǎo)彈;金字塔池化

0 引言

自尋的導(dǎo)彈是指導(dǎo)彈能夠自主地搜索、捕獲、識別、跟蹤和攻擊目標,是一種發(fā)射后鎖定的制導(dǎo)方式[1]。由于紅外圖像對比度較低,目標與背景灰度類似,很難直接采用傳統(tǒng)的檢測算法來定位目標[2-3]。

眾所周知,目標的輪廓信息是實現(xiàn)目標檢測與識別的關(guān)鍵。語義邊緣檢測常用于定位目標輪廓并實現(xiàn)目標分類。語義邊緣檢測是計算機視覺領(lǐng)域的熱門研究方向,也是更復(fù)雜、更高層次視覺任務(wù)的基礎(chǔ),如目標定位,目標檢測,記憶重捕等[4]。早期的邊緣檢測算法主要利用目標像素及其局部區(qū)域之間的灰度差作為特征來確定像素的類型:邊緣或非邊緣,如Sobel、Canny等運算符[5-6]。然而,僅僅通過使用局部梯度漸變很難識別目標輪廓及其類別。因此,一些學(xué)者提出采用多尺度特征融合實現(xiàn)邊緣特征提取與分類。軍械工程學(xué)院的彭博采用局部多尺度特性融合,并結(jié)合邊緣檢測實現(xiàn)目標精確檢測,降低了光照不均對目標檢測與識別的影響[7]。此類改進的算法都是需要提取人工設(shè)計的特征并將其作為后續(xù)分類或回歸模型的輸入,最后才實現(xiàn)目標輪廓識別。人工設(shè)計的特征需要分析并結(jié)合目標特有的先驗信息,其過程非常繁瑣,且也是一個啟發(fā)式過程。

北方激光研究院唐中和研究員在彈箭技術(shù)科學(xué)家論壇中提出從海量數(shù)據(jù)中學(xué)習(xí)并理解數(shù)據(jù)是智能產(chǎn)品發(fā)展的驅(qū)動力,其本質(zhì)是解決人類大量的、重復(fù)性操作。因此,基于深度卷積網(wǎng)絡(luò)模型在海量數(shù)據(jù)驅(qū)動下實現(xiàn)端到端的目標檢測,可應(yīng)用于智能產(chǎn)品研制。Xia等人[8]利用邊緣感知融合模塊有效地提取目標的邊緣輪廓,同時利用輔助旁側(cè)輸出與金字塔池化層輸出的尺度融合,表征出目標豐富的全局上下文信息,最終實現(xiàn)了復(fù)雜背景下的低對比度目標檢測。隨著深度卷積網(wǎng)絡(luò)模型研究的深入,基于語義邊緣檢測的改進深度網(wǎng)絡(luò)已經(jīng)應(yīng)用到視覺識別領(lǐng)域。但是,由于語義邊緣檢測是由邊緣定位和分類兩個子模塊組成,這需要提出目標不同層次的特征。邊緣定位提供了用于分類的位置信息;分類有助于實現(xiàn)目標的輪廓與其他邊緣有效鑒別。目標的邊緣定位需要較低層次的特征,而這些特征并不能提升識別分類的精度。邊緣分類需要更高層次的抽象特征,這些特征有助于細粒度圖像分類。因此,利用多尺度深度特征進行語義邊緣檢測是一個具有挑戰(zhàn)性的問題[9]。目前,主流的語義邊緣檢測算法包括CASENet及其變體算法[10],該類算法主要利用語義邊緣類別感知進行目標檢測,并取得了顯著的檢測精度,但對于低對比度,邊緣模糊的紅外圖像很難取得很好的檢測效果。因此,對于實時性、準確性和有效性要求極高的武器裝備,基于深度學(xué)習(xí)模型的檢測與定位應(yīng)用仍然存在不足。

針對紅外圖像復(fù)雜背景特點,本文在多尺度深度模型的基礎(chǔ)上,提出了一種基于語義邊緣檢測的深度融合網(wǎng)絡(luò),旨在利用邊緣定位和分類子任務(wù)的不同要求以及它們的互補性,實現(xiàn)復(fù)雜背景下典型裝甲目標的檢測與識別,該算法在高層次的上下文特征中逐步增強細節(jié)信息,同步提升邊緣定位和分類的精度。

1 基于邊緣感知的改進深度網(wǎng)絡(luò)裝甲目標檢測算法

眾所周知,裝甲目標定位的關(guān)鍵是獲取裝甲的輪廓信息,然后通過特征建模,進而實現(xiàn)裝甲區(qū)域的準確定位[11]。邊緣輪廓檢測的相關(guān)工作大致可分為3類:邊緣檢測、物體輪廓檢測和語義邊緣檢測,其對應(yīng)特征大致可分為低、中、高3個層次[12]。低層次特征描述了目標區(qū)域的細粒度局部變化;中層次特征則表征了較大的局部區(qū)域編碼模式;高層次特征包含目標級的上下文信息。邊緣檢測僅使用局部低層次信息來定位相鄰像素強度急劇變化的邊緣;目標輪廓檢測通常結(jié)合低層次和中層次特征信息來定位邊緣,同時抑制不屬于目標輪廓的邊緣;語義邊緣檢測則利用類標簽信息生成目標輪廓。為了檢測語義邊緣,從低到高的特征提取與融合是必要的。因此,隨著深度學(xué)習(xí)網(wǎng)絡(luò)可以學(xué)習(xí)從低到高的深度特征學(xué)習(xí),結(jié)合邊緣檢測的目標識別任務(wù)也變得相對活躍。

本文提出了一種基于多尺度上下文深度網(wǎng)絡(luò)的語義邊緣檢測算法,該算法是采用一種級聯(lián)融合結(jié)構(gòu),通過逐步融合多尺度深度特征,有利于提升深度特征表征能力。與現(xiàn)有的逐步融合策略不同,該算法是將低層次特征分步抽象出高層次特征,以保留更多上下文信息,并增強目標細節(jié),而不是像現(xiàn)有的逐步融合策略那樣將高層特征與低層特征融合在一起。此外,本文改進的模型提出了一種位置感知融合模塊,由于每個模塊的融合都是位置自適應(yīng)的,它可以選擇性地集成較低層次特征的細節(jié)。為了進一步豐富模型的特征表達能力,本文提出了一個上下文聚合模塊,并在每個特征提取和融合階段添加一個邊緣感知模塊。本文設(shè)計的整體結(jié)構(gòu)和兩個功能模塊能夠滿足不同子任務(wù)的功能要求,并利用它們的互補性,同時獲得高精度的目標邊緣定位及其類別,所提的方法的網(wǎng)絡(luò)總體框架如圖1所示,該網(wǎng)絡(luò)采用了5層ResNet101作為骨干,CASENet網(wǎng)絡(luò)已經(jīng)證明了該方法對語義邊緣檢測是有效的。為了使最初設(shè)計用于圖像分類的ResNet101能夠適應(yīng)語義邊緣檢測,該結(jié)構(gòu)在高層次的上下文特征中逐步增強細節(jié)信息,同步提升邊緣定位和分類的精度,并在每個融合階段增加了一個位置感知的融合模塊,融合多個尺度的特征的同時,抑制了來自低層次特征的噪聲信息,使得網(wǎng)絡(luò)模型能夠聚焦于物體輪廓周圍的細節(jié)。

1.1 語義特征提取模塊

由于深度網(wǎng)絡(luò)編解碼模塊的前饋網(wǎng)絡(luò)層可以獲取裝甲目標粗定位,但是空間上采樣操作并不能有效恢復(fù)空間信息和更精細的細節(jié)特征,所以不能很好地保留邊緣結(jié)構(gòu)[13]。為了準確地定位目標的輪廓,本文采用的語義邊緣檢測網(wǎng)絡(luò)是一種逐級自下而上的特征融合結(jié)構(gòu)。理論上,多尺度特征信息融合的基本結(jié)構(gòu)在功能上可以用于語義邊緣檢測,但這種結(jié)構(gòu)忽略了低層次特征,而這些特征對于邊緣定位至關(guān)重要。CASENet網(wǎng)絡(luò)直接將所有的側(cè)面特征層連接在一起,但這種結(jié)構(gòu)忽略了從低層次特征到高層次特征在邊緣定位和分類中的不同作用[14]。因此,本文采用了一種自上而下的逐步融合結(jié)構(gòu),它將從高層次特征到低層次特征的多尺度特征逐步融合,弱化了高層次特征在邊緣分類中的作用。該結(jié)構(gòu)采用自下而上的融合設(shè)計,逐漸融合了從低到高的多尺度特征,有利于利用互補特征獲取更有效的多尺度特征空間,并逐步增強高層次特征的語義識別能力,同時促進邊緣分類和定位。

圖1 基于邊緣感知的目標檢測模型框架

1.2 上下文聚合模塊

由于邊緣特征分類需要目標的上下文信息,本文引用了一種上下文聚合模塊來學(xué)習(xí)輸入特征的上下文特征,如圖2所示,該模塊以殘差網(wǎng)絡(luò)為基本結(jié)構(gòu),其第一個組件是1×1卷積層,旨在降低輸入特征圖的通道數(shù)以節(jié)省計算成本;后面兩個3×3卷積層有助于提取目標的上下文信息,其輸出的特征與1×1卷積層生成的特征圖相加有助于表征能力更強的上下文特征映射。在實際應(yīng)用過程中,隨著空間維數(shù)逐漸減小,stage1到stage5中的信道數(shù)也相應(yīng)設(shè)置為32、64、128、256和512。在DeepLab網(wǎng)絡(luò)中,擴張卷積可以在不增加參數(shù)數(shù)量的情況下增加感受野[15]。因此,為了提升目標的上下文特征信息,本文在上下文聚合模塊中引入了擴張卷積,通過多個擴張率將擴張卷積以級聯(lián)或融合方式來捕獲多尺度上下文特征。然而,語義邊緣檢測還需要細節(jié)信息來進行邊緣定位。從這個角度來看,較大的擴張率可能會造成負面影響。因此,有必要在邊緣感知先驗信息下逐層學(xué)習(xí)出最優(yōu)深度特征。

圖2 上下文聚合模塊

1.3 邊緣感知融合模塊

本文采用的邊緣感知融合模塊的目的是學(xué)習(xí)從較低層次特征中選擇上下文細節(jié)來增強高層次特征的表征能力,其選擇過程依賴于高層次特征的指導(dǎo),如圖3所示。邊緣感知融合模塊將不同層次的特征映射作為輸入。首先,邊緣感知融合模塊對低層次特征進行下采樣以獲得與高層次特征相同的尺寸;然后,邊緣感知融合模塊將不同層次的特征級聯(lián)在一起,并將級聯(lián)后的特征輸入到兩個1×1的卷積層?;诘蛯哟翁卣骱透邔哟翁卣髦g的對應(yīng)關(guān)系,這兩個卷積層被訓(xùn)練生成低層次特征的權(quán)重圖,其中權(quán)重映射的通道數(shù)與低層特征的通道數(shù)相同。接下來,將較低層次特征與權(quán)重映射相乘并增加到較高層次特征中。實際上,級聯(lián)操作可以忽略,以便只使用更高層次的特征映射來計算權(quán)重。在圖2中,本文使用4個邊緣感知融合模塊來逐步融合5個階段的特征。值得注意的是邊緣感知融合模塊中的下采樣結(jié)構(gòu)是步幅為2的1×1卷積層。理論上,步長為2的1×1卷積層比其他下采樣結(jié)構(gòu)所需的計算量要少。在Tensor Flow深度學(xué)習(xí)框架中ResNet101是整個網(wǎng)絡(luò)的主干,采用該結(jié)構(gòu)進行下采樣。然而,這種下采樣結(jié)構(gòu)在效率上的優(yōu)勢在實踐中并不顯著,因為下采樣只占整個網(wǎng)絡(luò)結(jié)構(gòu)的一小部分。實際上,在Pythorch中實現(xiàn)的ResNet101采用3×3濾波器,步長為2??傊疚奶岢龅哪P驮黾恿诉吘壐兄诤夏K,可以提升裝甲目標輪廓精度;利用多尺度特征融合捕獲紅外圖像的高層次語義特征,最終可以有效地提高紅外圖像裝甲目標的檢測與定位精度。

圖3 邊緣感知融合模塊

2 實驗結(jié)果及其性能分析

2.1 實驗數(shù)據(jù)及其參數(shù)設(shè)置

為了評估本文提出的裝甲檢測算法性能,訓(xùn)練集使用外場裝甲數(shù)據(jù)集作為訓(xùn)練圖像,其中6500張紅外圖像的裝甲被準確標注。90%的數(shù)據(jù)集用于訓(xùn)練,其余10%用于測試。自建裝甲數(shù)據(jù)集是從利用直升機外掛紅外成像設(shè)備在阿拉善戈壁環(huán)境下采集,其環(huán)境覆蓋了盡可能多姿態(tài)與角度的裝甲車輛,具有多種紋理背景與部分遮擋干擾。除目標區(qū)域外,其余部分標記為背景,也就是說標注數(shù)據(jù)集可用于裝甲定位模型的訓(xùn)練和測試。這些數(shù)據(jù)包含大量復(fù)雜背景。需要說明的是,雖然非制冷紅外圖像不清晰,且數(shù)據(jù)集中存在一些邊緣高亮區(qū)域,但不影響對紅外圖像進行標注與定位。

在深度卷積網(wǎng)絡(luò)中,需要手動設(shè)置的參數(shù)稱為超參數(shù),其參數(shù)設(shè)置沒有具體的方法,但大多可以根據(jù)網(wǎng)絡(luò)訓(xùn)練經(jīng)驗進行調(diào)整。例如,學(xué)習(xí)率是控制模型更新速度的一個重要超參數(shù)。選擇一個好的學(xué)習(xí)率是很有挑戰(zhàn)性的,因為如果學(xué)習(xí)率太小,那么訓(xùn)練速度將非常慢且耗時,而且很可能會陷入局部最小值。反之,如果學(xué)習(xí)率過大,訓(xùn)練過程將不穩(wěn)定。本文提出的網(wǎng)絡(luò)模塊在TensorFlow深度學(xué)習(xí)框架下完成。為了提高優(yōu)化效率,采用小批量隨機梯度下降優(yōu)化算法,其超參數(shù)中基本學(xué)習(xí)率、權(quán)重衰減和動量分別設(shè)置為2×10-7,5×10-4和0.9。對于裝甲目標輪廓檢測模塊,學(xué)習(xí)率設(shè)置為10-6,訓(xùn)練迭代次數(shù)為200k/次;訓(xùn)練樣本的大小調(diào)整為128×128并作為網(wǎng)絡(luò)的輸入。本實驗搭建的實驗環(huán)境均在戴爾工作站上進行,該系統(tǒng)具有一個Intel Xeon CPU,最高頻率為3.2 GHz;英偉達GeForce GTX1050TI顯卡,以及64位操作系統(tǒng)Ubuntu 6.06。

2.2 評價指標

目前,現(xiàn)有的識別算法對紅外圖像中的裝甲目標存在較大漏檢與誤檢,主要歸咎于目標對比度低、邊緣模糊且不同視角下目標外形差異較大。如何對復(fù)雜戰(zhàn)場環(huán)境下獲得的紅外目標檢測結(jié)果進行有效評估,降低主觀誤差對性能的影響,是評價算法性能的關(guān)鍵。為了更清楚地說明目標檢測模型之間的差異,需要引入定量評估準則。因此,本文采用評價標準是檢測率與誤檢率指標,側(cè)重考察漏檢出現(xiàn)的概率,如表1所示。

表1 裝甲檢測結(jié)果統(tǒng)計

為了實現(xiàn)對檢測結(jié)果進行有效評估,對獲得的裝甲區(qū)域檢測矩形框的評價準則是檢測率與誤檢率,其公式如下所示:

其中參數(shù)定義參見文獻[8]。為了便于對比分析,實驗將選用的測試數(shù)據(jù)集分成6大類,其標識及特點如表2所示。此外,為了評估裝甲檢測和定位結(jié)果的準確性,本文還使用像素精度(Pixel accuracy,PA)和平均IoU(Mean intersection over union,MIoU)作為評價準則。

表2 不同測試子集的特點

2.3 定性定量分析

目前,已經(jīng)有許多針對自然圖像進行目標檢測的算法。然而,目前針對紅外圖像的裝甲目標檢測的模型較少。本文目的是將目標檢測作為自尋的導(dǎo)彈自主地搜索目標,實現(xiàn)發(fā)射后高精度鎖定目標,降低背景干擾的影響。由于基于深度學(xué)習(xí)的檢測算法在自然圖像領(lǐng)域已經(jīng)獲得了巨大的成果。為了定性定量分析紅外圖像領(lǐng)域的本文提出的裝甲目標檢測的精度,實驗選用了對比算法分別是ConvNet[16]、YOLO-V2[17]、SSD[18]、DenseNet[19]與ResNet[20]。選用的所有對比算法都采用作者給出的源代碼進行分析。雖然這些深度模型并不是針對紅外目標檢測,但這些模型并不區(qū)分紅外圖像與自然圖像,只要給予充分的訓(xùn)練數(shù)據(jù),就能得到相應(yīng)的檢測結(jié)果。為了便于所有對比算法進行公平公正地對比分析,所有的對比模型都用相同的訓(xùn)練集與測試集進行實驗。

2.3.1 檢測精度對比

本文提出的算法是一種結(jié)合了語義邊緣先驗的目標檢測模型,旨在利用邊緣定位和分類子任務(wù)對特征的不同要求以及它們的互補性,實現(xiàn)復(fù)雜背景下典型裝甲目標的檢測與識別。眾所周知,不同的評價標準下的檢測精度存在較大差異。一般來說,目標檢測精度與精度曲線密切相關(guān)。精確曲線是通過繪制每個目標類的曲線來評估目標檢測模型在置信度改變時的性能。如果目標檢測模型的精確度隨著閾值的增加而保持較高的話,那么該模型的性能較好。

表3展示了不同對比算法對不同測試子集的檢測結(jié)果。實驗結(jié)果表明,大多數(shù)對比模型對背景復(fù)雜度的變化具有較強的魯棒性,對不同背景的檢測效果沒有明顯差異。然而,對于目標尺度不大于10×10小目標的檢測,SSD、DenseNet、ResNet與ConvNet具有局限性,這是由于這些深度模型都具有較深的網(wǎng)絡(luò)層,其生成的低層特征很少,但低層次特征對于弱小裝甲目標的檢測貢獻很大。本文提出的模型無論是對單個還是多個、稀疏還是密集、大或小目標,都具有更好的性能,滿足了光電系統(tǒng)目標精確檢測的要求。從表3的定量測試結(jié)果可以看出,本文所提的裝甲目標檢測率是所有對比算法中最佳。數(shù)據(jù)集A中目標模糊,對比度低,部分炮塔存在覆蓋物,但最終本文模型的檢測概率是90.06%;數(shù)據(jù)集B中裝甲目標較小,背景中存在大量高亮區(qū)域,最終本文模型的檢測概率是77.14%;

在數(shù)據(jù)集C中密集卷積網(wǎng)絡(luò)(DenseNet)的平均檢測率為73.22%,而本文算法的性能明顯優(yōu)于DenseNet。由于數(shù)據(jù)集E中的所有圖像都具有較大噪聲,且目標內(nèi)部細節(jié)不均勻,很容易被當(dāng)成多個分離的實體,嚴重影響檢測精度。從表3的檢測率對比結(jié)果可以看出,數(shù)據(jù)集E上的裝甲檢測精度是最低的,僅僅59.58%,但也比其他對比模型的精度高。雖然DenseNet可以通過多通道特征級聯(lián)實現(xiàn)特征重用,有利于大大降低參數(shù)和計算成本,避免了加深加寬網(wǎng)絡(luò)導(dǎo)致實時性大大降低,但特征重用通道數(shù)依賴于的超參數(shù)中增長率的設(shè)置,需要根據(jù)圖像內(nèi)容自適應(yīng)調(diào)整,這就使得DenseNet泛化能力不足,對背景差異較大樣本的檢測性能較差。YOLO v2在網(wǎng)絡(luò)中取消了全連接層,添加了BN層,并利用錨點框進行預(yù)測,其訓(xùn)練過程是在ImageNet數(shù)據(jù)集上進行參數(shù)微調(diào)。從實驗結(jié)果可以看出,YOLO v2是所有對比算法中最優(yōu)的檢測結(jié)果,僅次于本文提出的模型。與對比檢測模型相比,本文提出的模型在6類數(shù)據(jù)集上具有最優(yōu)的檢測性能,同時,這表明了該方法的優(yōu)越性。從檢測結(jié)果可以看出,本文模型可以生成更可靠的檢測結(jié)果,更接近實際基準情況。

2.3.2 檢測框性能對比

在目標檢測應(yīng)用里,通常采用邊界框來描述目標位置,一個較好的檢測結(jié)果是目標的邊界框應(yīng)該與目標的最小外接矩形重合。在我們的實驗中,如果獲取的目標邊界框與其中一個目標的基準框的重疊區(qū)域超過0.5,則認為檢測的結(jié)果是有效的。為了直觀地對比分析不同模型間的性能差異,實驗采用目標的檢測率(detective rate DR)與誤檢率(false positives per-image,F(xiàn)PPI)的關(guān)系圖來描述裝甲目標檢測算法在不同誤檢率下的統(tǒng)計結(jié)果,如圖4所示。也就是說,設(shè)置不同的誤檢率可以得到不同的檢測精度。從實驗結(jié)果可以看出,不同模型生成的對比曲線差異較大,且層次明顯。為了便于直觀地性能對比,一般可以選擇一個FPPI值來對比相應(yīng)的檢測率。當(dāng)FPPI=0.5時,本文所提裝甲檢測算法的檢測率是81%,而最優(yōu)對比算法YOLO v2檢測器的檢測率為76%,ResNet檢測器的檢測率為74%,相較YOLO v2檢測器提升了5%。對比結(jié)果表明本文所提模型在保證目標檢測實時性的前提下有效地提高了目標的檢測準確率。

表3 不同測試數(shù)據(jù)集下檢測精度

圖4 檢測率與FPPI的關(guān)系曲線

由于導(dǎo)彈制導(dǎo)系統(tǒng)中,中心位置精度決定了檢測結(jié)果是否滿足攻擊要求。為了便于定量分析,本實驗也比較了基于位置誤差度量的精確度圖和基于重疊度量的成功率圖,如圖5所示。圖5(a)是不同中心位置誤差閾值下的檢測精度,其誤差閾值越大,精度越接近1。圖5(b)是不同重疊率誤差閾值下的檢測成功率,其重疊率閾值越大,精度越接近0。在實際應(yīng)用中,中心位置誤差閾值與重疊率閾值分別設(shè)置為10與0.5??梢钥闯觯疚乃岬臋z測模型在10個像素閾值下的檢測精度是0.83,在重疊率閾值0.5下的檢測成功率是0.87,優(yōu)于最優(yōu)對比檢測網(wǎng)絡(luò)YOLO v2。定量分析結(jié)果表明,本文所提的深度融合網(wǎng)絡(luò)能夠利用語義特征提取模塊和上下文聚合模塊來實現(xiàn)復(fù)雜背景下典型裝甲目標的檢測與識別,同步提升邊緣定位和分類的精度。尤其是對不同視角下裝甲圖像,我們能夠準確地標記出裝甲的位置,提高了打擊精度與效率。

2.3.3 定性對比

圖6是不同對比算法對不同紅外圖像的裝甲目標檢測的結(jié)果,其中本文模型,SDD,DenseNet,ResNet,ConvNet與YOLO v2的結(jié)果分別采用不同邊界框表示。受制于篇幅的限制,本文只選用了比較具有代表性的6幅圖像來進行測試。在圖6(a),6(b)和圖6(d) 裝甲的形態(tài)差異較大,尤其是裝甲目標與背景的灰度相近,這就導(dǎo)致DenseNet常檢測到錯誤的目標。SSD算法和DenseNet算法的結(jié)果雖然接近本文提出的算法,但由于反卷積恢復(fù)到原始尺寸時存在插值誤差,導(dǎo)致結(jié)果也存在偏差。根據(jù)響應(yīng)圖極大值分析,這些外觀變化無法獲取準確的邊界,導(dǎo)致?lián)p失函數(shù)無法收斂,檢測差異較大。因此,所有對比網(wǎng)絡(luò)模型不準確的定位目標的位置,而本文模型結(jié)果則證明了對于形變,低對比度等干擾影響下的精度較低的問題,能夠通過輪廓感知網(wǎng)絡(luò)來解決。雖然YOLO v2能夠檢測到目標,但仍然易遭受復(fù)雜背景干擾,導(dǎo)致檢測中心存在偏差。圖6(e)中,目標的對比度與旁邊地表的灰度類似,但又與道路灰度存在較大差異,容易出現(xiàn)地景干擾,影響檢測精度,而圖6(c)與6(f)中目標邊界不明顯,且目標尺度較小,邊界模糊。從檢測實驗結(jié)果可以看出,ConvNet檢測框已經(jīng)偏離目標中心,而本文提出的目標檢測網(wǎng)絡(luò)能夠結(jié)合語義特征提取模塊和上下文聚合模塊的優(yōu)勢,能夠更好地適應(yīng)目標的形態(tài)變化,具有較高的檢測與識別的精度。

圖5 不同對比算法的性能對比

圖6 不同對比算法對不同紅外圖像的裝甲檢測的結(jié)果,其中(a)-(f)分別代表不同圖像

3 結(jié)論

目標檢測在現(xiàn)代武器系統(tǒng)中得到了廣泛的應(yīng)用,能夠自主識別目標,并實現(xiàn)目標的跟蹤與打擊。由于紅外圖像對比度較低,目標與背景灰度類似,很難直接采用傳統(tǒng)的檢測算法來檢測目標。為了提升裝甲目標檢測中的抗干擾能力差的問題,本文結(jié)合深度特征提取模塊和上下文聚合模塊,提出了一種表征能力更強的多尺度耦合模型。與對比檢測模型相比,本文提出的模型在6類數(shù)據(jù)集上具有最優(yōu)的檢測性能,從檢測結(jié)果可以看出,本文模型可以生成更可靠的檢測結(jié)果,更接近實際基準情況,可以有效地提高紅外圖像中裝甲的檢測與定位精度。

[1] 陳國勝, 胡福東, 周成寶, 等. 基于BIRD網(wǎng)絡(luò)的智能紅外全景識別系統(tǒng)[J]. 紅外技術(shù), 2018, 40(8): 765-770.

CHEN Guosheng, HU Fudong, ZHOU Chenbao, et al. Intelligent infrared panoramic recognition system based on BIRD network[J]., 2018, 40(8): 765-770.

[2] 劉博文, 戴永壽, 金久才, 等. 基于空間分布與統(tǒng)計特性的海面遠景目標檢測方法[J]. 海洋科學(xué), 2018, 42(1): 88-92.

LIU B, DAI Y, JIN J, et al. Long-range object detection on sea surface based on spatial distribution and statistical characteristics[J]., 2018, 42 (1): 88-92

[3] 駱清國, 趙耀, 俞長賀, 等. 某型裝甲車輛紅外輻射信號的建模與仿真[J]. 裝甲兵工程學(xué)院學(xué)報, 2019, 33(1): 31-36.

LUO Q, ZHAO Y, YUC, et al. Modeling and simulation of infrared radiation signal of an armored vehicle[J]., 2019, 33(1): 31-36.

[4] DONG X, HUANG X, ZHENG Y, et al. A novel infrared small moving target detection method based on tracking interest points under complicated background[J].., 2014, 65: 36-42.

[5] HE Y, LI M, ZHANG J, et al. Small infrared target detection based on low-rank and sparse representation[J]., 2015, 68: 98-109.

[6] GUO J, Hsia C, LIU Y, et al. Fast background subtraction based on a multilayer codebook model for moving object detection[C]//, 2013, 23(10): 1809-1821.

[7] 彭博, 臧笛. 基于深度學(xué)習(xí)的紅外車輛識識別方法研究[J]. 計算機科學(xué), 2015, 42(4): 268-273.

PENG Bo, ZANG Di. Vehicle logo recognition based on deep learning[J]., 2015, 42(4): 268-273.

[8] XIA K J , CHENG J , TAO D , et al. Liver detection algorithm based on an improved deep network combined with edge perception[J]., 2019, 12: 175135-17514.

[9] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger[C]//, 2017: 6517-6525.

[10] YU Z, FENG C, LIU M Y, et al. CASENet: Deep category-aware semantic edge detection[C]//, 2017: 1761-1770(doi: 10.1109/CVPR.2017.191).

[11] Neubeck A, Gool L V. Efficient non-maximum suppression[C]//, IEEE Computer Society, 2006: 850-855.

[12] 焦安波, 何淼, 羅海波. 一種改進的HED網(wǎng)絡(luò)及其在邊緣檢測中的應(yīng)用[J]. 紅外技術(shù), 2019, 41(1): 72-77. JIAO Anbo, HE Miao, LUO Haibo. Research on significant edge detection of infrared image based on deep learning[J]., 2019, 41(1): 72-77.

[13] 楊眷玉. 基于卷積神經(jīng)網(wǎng)絡(luò)的物體識別研究與實現(xiàn)[D]. 西安: 西安電子科技大學(xué), 2016.

YANG J. Research and Implementation of Object Detection Based on Convolutional Neural Networks[D]. Xi’an: Xidian University, 2016.

[14] 丁文秀, 孫悅, 閆曉星. 基于分層深度學(xué)習(xí)的魯棒行人分類[J]. 光電工程, 2015, 42(9): 21-27.

DING W, SUN Y, YAN Xiaoxing. Robust pedestrian classification based on hierarchical deep learning[J]., 2015, 42(9): 21-27.

[15] CHEN S, CHEN Z, XU X, et al. Nv-Net: efficient infrared image segmentation with convolutional neural networks in the low illumination environment[J]., 2020, 105: 103184.

[16] HOSANG J, BENENSON R, SCHIELE B. A convnet for non-maximum suppression[C]//, Cham: Springer, 2016: 192-204.

[17] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]//, New York: IEEE Press, 2017: 7263-7271.

[18] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//. Cham: Springer, 2016: 21-37.

[19] HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]//, 2017: 4700-4708.

[20] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//, 2016: 770-778.

Infrared Armored Target Detection Based on Edge-perception in Deep Neural Network

SHENG Dajun1,ZHANG Qiang2

(1.,,464000,; 2.,,464000,)

Automatic detection of armored targets has always been the most challenging problem in the field of infrared guidance. Traditional models address this problem by extracting the low-level features of an object and then training the feature classifier. However, because traditional detection algorithms can not cover all object patterns, the detection performance in practical applications is limited. Inspired by the edge-aware model, this study proposes an improved deep network based on edge perception. The network improves the accuracy of the armored contour through an edge-aware fusion module. By exploiting he advantages of the feature extraction module and context aggregation module, it can better adapt to thechanges of objects and has high detection and recognition accuracy. The results show that the proposed armored detection network model can effectively improve the accuracy of detection and positioning in infrared images.

armored vehicle, infrared image, target detection, edge perception, homing missile, pyramid pooling

TP753

A

1001-8891(2021)06-0784-08

2020-05-10;

2020-09-03.

盛大俊(1981-),男,講師,研究方向:制導(dǎo)測試技術(shù),計算機視覺應(yīng)用

張強(1975-),男,高工,研究方向:光電系統(tǒng)維修與測試,紅外制導(dǎo)技術(shù)等,E-mail:x0376y@163.com。

裝備預(yù)研基金資助課題。

猜你喜歡
邊緣語義特征
語言與語義
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
一張圖看懂邊緣計算
“上”與“下”語義的不對稱性及其認知闡釋
認知范疇模糊與語義模糊
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
語義分析與漢俄副名組合
在邊緣尋找自我
雕塑(1999年2期)1999-06-28 05:01:42
大兴区| 哈密市| 工布江达县| 阿拉善右旗| 红桥区| 若尔盖县| 广饶县| 马边| 福鼎市| 云林县| 灌南县| 新乡县| 板桥市| 娄烦县| 龙泉市| 秀山| 咸阳市| 贡觉县| 剑川县| 姚安县| 东源县| 新化县| 山东省| 锦州市| 德江县| 罗山县| 临安市| 视频| 清镇市| 容城县| 仁怀市| 宁武县| 萨嘎县| 福清市| 乐山市| 山西省| 通许县| 新邵县| 开封市| 金华市| 新昌县|