黃啟恒 王勇
摘要:針對(duì)偽裝人員檢測中顏色紋理相似、姿態(tài)復(fù)雜、局部遮擋嚴(yán)重和傳統(tǒng)偏振特征參量存在干擾等問題,提出一種基于圖卷積網(wǎng)絡(luò)的偏振圖像偽裝人員檢測算法。首先,將圖映射模塊、圖卷積模塊和圖逆映射模塊等構(gòu)建圖卷積偏振信息提取網(wǎng)絡(luò),提取四方向偏振圖像的偽裝人員全局偏振特征表示;然后,設(shè)計(jì)金字塔池化網(wǎng)絡(luò)融合多尺度偏振特征,并采用分類檢測網(wǎng)絡(luò)對(duì)偽裝人員識(shí)別檢測;最后,自建三類偽裝模式人員數(shù)據(jù)集進(jìn)行檢測研究。實(shí)驗(yàn)結(jié)果表明,所提算法的檢測精度相比于經(jīng)典檢測算法都取得明顯的提升,有效改善偽裝人員檢測效果。
關(guān)鍵詞:目標(biāo)檢測;偏振成像;深度學(xué)習(xí);偏振特征;圖卷積網(wǎng)絡(luò)
中圖分類號(hào):TP391.41? ?文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2023)36-0004-05
開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID)
0 引言
偽裝人員檢測是一項(xiàng)新興的計(jì)算機(jī)視覺任務(wù),其目的是識(shí)別通過偽裝技術(shù)隱藏于背景環(huán)境中的人員,并定位其在圖像中的位置。隨著多種多樣的偽裝方式應(yīng)用于軍事領(lǐng)域,具有偽裝模式的目標(biāo)檢測難度逐步增加,近年來,雖然通用目標(biāo)檢測算法[1]取得了優(yōu)異的檢測效果,但是在偽裝目標(biāo)檢測研究中仍然存在許多挑戰(zhàn),主要包括偽裝目標(biāo)與周圍環(huán)境之間的邊緣相融和顏色高度相似等困難。針對(duì)此類困難,本文將主要研究基于軍事偽裝模式的人員檢測算法。
當(dāng)前的偽裝目標(biāo)檢測算法[2-6]主要基于可見光RGB圖像提出的,這些檢測算法可大致分為兩類:基于手工設(shè)計(jì)特征的偽裝目標(biāo)檢測算法[2-4]和基于深度學(xué)習(xí)特征的偽裝目標(biāo)檢測算法[5-6]。其中,由于受到偽裝目標(biāo)固有的紋理特征與環(huán)境背景存在巨大差異的啟發(fā),一部分基于手工設(shè)計(jì)特征的檢測算法主要集中于提取紋理特征表示偽裝目標(biāo)。例如,SONG等人[2]提出一種包括亮度、紋理方向和熵組成的偽裝紋理描述子,再通過特征的權(quán)值結(jié)構(gòu)相似度來衡量偽裝紋理的性能。文獻(xiàn)[3]提取局部的灰度共生矩陣表示紋理特征,然后采用分水嶺分割算法檢測偽裝目標(biāo)。另一部分基于手工設(shè)計(jì)特征的檢測算法[4]則是提取多尺度的顏色、強(qiáng)度和LBP算子特征表示偽裝目標(biāo)與背景,再計(jì)算并融合局部與全局的顯著性圖來評(píng)估偽裝目標(biāo)檢測的性能。隨著深度學(xué)習(xí)網(wǎng)絡(luò)展現(xiàn)出優(yōu)異的性能,已有部分偽裝目標(biāo)檢測算法采用卷積神經(jīng)網(wǎng)絡(luò)[5-6]等實(shí)現(xiàn)偽裝目標(biāo)的特征表示。
由于可見光RGB圖像中偽裝目標(biāo)與背景的顏色、紋理信息差異度甚小的局限性,并且偽裝人員相比靜態(tài)偽裝目標(biāo)存在姿態(tài)復(fù)雜、局部遮擋嚴(yán)重等問題,使得現(xiàn)有的偽裝目標(biāo)檢測器難以獲取偽裝目標(biāo)區(qū)分性的特征表示。為了準(zhǔn)確地檢測偽裝人員,受偏振光能反映物體固有屬性的啟發(fā),本文利用偏振圖像中偽裝人員與背景的差異性,提取偏振特征信息來增強(qiáng)偽裝人員與背景的可具區(qū)分性表示。雖然現(xiàn)有的偏振特征信息提取方法能利用斯托克斯(stokes)參量有效提取偏振度參量、偏振角參量表示目標(biāo),但是由于偽裝人員在復(fù)雜的背景環(huán)境中的偏振度與偏振角信息較弱,如圖1所示,采用偏振度與偏振角特征信息表示偽裝人員不能有效提升偽裝人員檢測正確率。因此,受圖卷積神經(jīng)網(wǎng)絡(luò)具有處理圖結(jié)構(gòu)數(shù)據(jù)優(yōu)勢(shì)的啟發(fā),本文提出一種基于圖卷積網(wǎng)絡(luò)的偏振圖像偽裝人員檢測算法,獲取四個(gè)方向(0°,45°,90°和135°)原始偏振圖像之間的弱耦合關(guān)系,彌補(bǔ)偏振度與偏振角特征信息在非正交方向信息的丟失,提取偽裝人員豐富的全局偏振特征信息表示,從而提高偽裝人員檢測正確率。
綜上所述,本文研究工作的主要貢獻(xiàn)有:1)針對(duì)偽裝人員與背景環(huán)境的顏色紋理相似、姿態(tài)復(fù)雜、局部遮擋等問題,本文提出了一種基于圖卷積偏振特征提取網(wǎng)絡(luò)的偽裝人員檢測算法,學(xué)習(xí)偽裝人員的全局偏振特征信息,增強(qiáng)偽裝人員與背景的特征差異,提高偽裝人員檢測精度。2)針對(duì)偽裝目標(biāo)數(shù)據(jù)集當(dāng)前只集中于基于可見光RGB圖像,本文構(gòu)建了基于偏振圖像的三類偽裝模式人員數(shù)據(jù)集(Multicam數(shù)據(jù)集、Woodland數(shù)據(jù)集和ACU數(shù)據(jù)集)用于偏振信息提取與偽裝人員檢測的研究。3)本文算法在三個(gè)偽裝人員數(shù)據(jù)集上進(jìn)行大量的驗(yàn)證對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文算法的檢測精度AP50(%)在Multicam數(shù)據(jù)集、Woodland數(shù)據(jù)集和ACU數(shù)據(jù)集上分別達(dá)到90.6%、93.7%、94.5%,均優(yōu)于大部分經(jīng)典的檢測算法。
1 相關(guān)工作
1.1 偏振成像傳感器
隨著納米制造技術(shù)的發(fā)展,分焦平面偏振成像技術(shù)近年來取得了進(jìn)步。圖2展示本文所用彩色偏振成像傳感器的像素排布。與傳統(tǒng)的彩色成像傳感器相比,這類偏振傳感器具有四個(gè)不同方向(0°,45°,90°和135°)的微偏振片均勻排列在表面,允許不同像素同時(shí)接收各種調(diào)制的光強(qiáng)度。在同一濾光片下由四個(gè)偏振片組成的像素為超級(jí)像素。通過選擇超級(jí)像素中接收具有相同方向的偏振光的像素值,可以獲取不同方向偏振光的四個(gè)原始偏振光強(qiáng)度圖。超級(jí)像素以拜爾模式排列,因此可以通過傳統(tǒng)的RGGB插值算法對(duì)這四個(gè)原始圖像進(jìn)行去馬賽克,以獲得0°,45°,90°和135°偏振方向的RGB強(qiáng)度圖,圖像大小為1024×1024。
1.2 線偏振光計(jì)算
使用偏振成像相機(jī)可以獲得四個(gè)方向(0°,45°,90°和135°)偏振光強(qiáng)度分量:[I0]、[I45]、[I90]、[I135],從而能計(jì)算斯托克斯參量為:
[S0=12(I0+I45+I90+I135)S1=I0-I90S2=I45-I135S3=Ilh-Irh]? ? ? ? ? ? ? ? ? ? (1)
其中,[S0]表示總光強(qiáng)度,[S1]表示0°和90°相互正交的線偏振光強(qiáng)度分量,[S2]表示45°和135°相互正交的線偏振光強(qiáng)度分量,[S3]表示圓偏振光,[Ilh]是左旋偏振光,[Irh]是右旋偏振光,由于人造目標(biāo)的圓偏振特性并不明顯,可忽略[7]。
利用[S0]、[S1]、[S2]三個(gè)參量可以計(jì)算提取偏振信息的兩個(gè)常用參考度量,分別是偏振度(DoLP)和偏振角(AoP):
[DoLP=S21+S22S0AoP=12tan-1(S2S1)]? ? ? ? ? ? ? ? ? ? ? ? ? ?(2)
其中,偏振度(DoLP)用于表示線偏振光強(qiáng)度在總光強(qiáng)中的比例,而偏振角(AoP)描述的是最強(qiáng)光矢量振動(dòng)的方向。偏振度圖像和偏振角圖像可以通過對(duì)四個(gè)不同偏振方向的光強(qiáng)圖像進(jìn)行像素運(yùn)算來獲得。
1.3 偽裝目標(biāo)檢測
早期的偽裝目標(biāo)檢測集中于檢測具有紋理、顏色、梯度和運(yùn)動(dòng)[8]視覺特征的偽裝目標(biāo)。在實(shí)際應(yīng)用中,單一的視覺特征不能完全準(zhǔn)確地表示偽裝目標(biāo)。因此,集成多種特征以提高檢測性能[9]。此外,貝葉斯框架已被用于視頻中的運(yùn)動(dòng)偽裝目標(biāo)檢測[10]。盡管這些算法展現(xiàn)出一定的優(yōu)勢(shì),但依靠現(xiàn)有的手工設(shè)計(jì)的特征表示檢測方法在現(xiàn)實(shí)應(yīng)用中往往會(huì)檢測失敗,因?yàn)樗鼈冎荒茉谙鄬?duì)簡單環(huán)境背景中實(shí)現(xiàn)檢測。為此,采用了深度學(xué)習(xí)特征,并以端到端方式進(jìn)行訓(xùn)練的模型來實(shí)現(xiàn)準(zhǔn)確的偽裝目標(biāo)檢測。例如,YAN等人[11]提出了一種稱為MirrorNet的雙流網(wǎng)絡(luò),用于具有原始圖像和翻轉(zhuǎn)圖像的偽裝目標(biāo)檢測,其潛在的動(dòng)機(jī)在于翻轉(zhuǎn)的圖像可以為偽裝目標(biāo)檢測提供有價(jià)值的信息。LAMDOUAR等人[12]通過深度學(xué)習(xí)框架利用運(yùn)動(dòng)信息從視頻中識(shí)別偽裝目標(biāo),該框架由兩個(gè)模塊組成,即可微分配準(zhǔn)模塊和運(yùn)動(dòng)分割模塊。LI等人[13]提出了一種具有相似性測量模塊的對(duì)抗性學(xué)習(xí)網(wǎng)絡(luò),用于對(duì)矛盾信息進(jìn)行建模,增強(qiáng)了檢測顯著目標(biāo)和偽裝目標(biāo)的能力。不同于現(xiàn)有的方法,本文算法將提出一種基于圖卷積網(wǎng)絡(luò)的偏振圖像偽裝人員檢測方法,提取偽裝人員全局偏振特征信息表示。
2 基于圖卷積網(wǎng)絡(luò)的偏振圖像偽裝人員檢測方法
2.1 方法總述
本文檢測算法基于Faster-RCNN檢測算法[14]提出的,如圖3所示。其中,有效提取偏振圖像中的偏振信息是提升偽裝人員檢測正確率的關(guān)鍵。受偏振信息能反映物體材質(zhì)固有屬性的啟發(fā),結(jié)合偽裝人員與背景環(huán)境偏振信息存在巨大差異,本文提出一種基于圖卷積網(wǎng)絡(luò)的偏振信息提取與檢測算法,利用圖卷積網(wǎng)絡(luò)學(xué)習(xí)全局偏振特征信息,提高偽裝人員檢測正確率。本文檢測框架主要包括圖卷積偏振信息提取網(wǎng)絡(luò)、金字塔池化模塊與檢測器。四方向的偏振圖像作為輸入,經(jīng)過圖卷積偏振信息提取網(wǎng)絡(luò)提取增強(qiáng)的全局偏振特征,然后輸入金字塔池化模塊進(jìn)行多尺度融合得到特征圖,最后將融合的特征圖輸入由候選預(yù)測邊框子網(wǎng)絡(luò)(RPN)和分類檢測子網(wǎng)絡(luò)(ROI)組成的檢測器中進(jìn)行偽裝人員的分類與檢測。
2.2 圖卷積偏振信息提取網(wǎng)絡(luò)
如圖4所示,圖卷積偏振信息提取網(wǎng)絡(luò)主要由特征提取網(wǎng)絡(luò)、圖映射模塊、圖卷積網(wǎng)絡(luò)模塊、圖逆映射模塊和殘差網(wǎng)絡(luò)(ResNet50)[15]組成。
1)特征提取網(wǎng)絡(luò)
特征提取網(wǎng)絡(luò)由四層1×1的卷積塊組成,卷積塊由卷積層,批歸一化層(BN層)和非線性激活函數(shù)ReLU函數(shù)組成。卷積塊操作如式(3)所示:
[Fi=fconv(ReLU(BN(conv1×1(xi))))]? ? ? ? ? ? ? ? ? ?(3)
式中[fconv(?)]表示卷積塊完整運(yùn)算,[xi]表示輸入圖像,[conv1×1(?)]是1×1卷積運(yùn)算,[BN(?)]表示批歸一化運(yùn)算,[ReLU(?)]是非線性函數(shù),[Fi]表示經(jīng)過卷積塊運(yùn)算后的輸出特征向量。本文的特征提取網(wǎng)絡(luò)的輸出特征向量是第四層卷積塊的輸出特征向量與第一層、第二層、第三層卷積塊的輸出特征向量進(jìn)行像素相加操作而得到的。給定輸入的四個(gè)方向的偏振圖像表示為[x0,45,90,135],經(jīng)過特征提取網(wǎng)絡(luò)后得到輸出向量[Fc],其運(yùn)算過程如式(4)所示:
[F1=fconv(ReLU(BN(conv1×1(x0,45,90,135))))F2=fconv(ReLU(BN(conv1×1(F1))))F3=fconv(ReLU(BN(conv1×1(F2))))F4=fconv(ReLU(BN(conv1×1(F3))))Fc=F1⊕F2⊕F3⊕F4]? ? ? ? ? ? ? ? (4)
式中[F1,F(xiàn)2,F(xiàn)3]分別表示第一層、第二層、第三層卷積塊的輸出特征向量。
2)圖映射模塊
圖映射模塊由一層1×1的卷積層和圖映射表示操作組成。給定輸入特征向量為[Fc∈Rh×w×c];首先,采用1×1的卷積層將特征向量轉(zhuǎn)換成低維特征,表示為[Flc∈Rh×w×c];然后,利用圖映射表示操作將特征向量轉(zhuǎn)換為圖節(jié)點(diǎn)嵌入表示[Vc∈Rc×k]。采用文獻(xiàn)[16]的策略,將圖映射表示操作參數(shù)化為[W∈Rk×c]和[Σ∈Rk×c]。其中參數(shù)[W]中的每一列[wk]表示第[k]個(gè)節(jié)點(diǎn)的可學(xué)習(xí)中心參數(shù),具體來看,每個(gè)節(jié)點(diǎn)表示可通過式(5)計(jì)算:
[vk=v′kv′k2,v′k=1iqikiqik(fi-wk)/σk]? ? ? ?(5)
其中[σk]是參數(shù)[Σ]的列向量,[v′k]是特征向量[fi]與[wk]殘差值的加權(quán)平均。[vk]是第[k]個(gè)節(jié)點(diǎn)的表示,并且構(gòu)成節(jié)點(diǎn)特征矩陣[V]的第[k]列。[qik]是特征向量[fi]到[wk]的軟分配,可以用下式計(jì)算:
[qik=exp(-(fi-wk)/σk22/2)jexp(-(fi-wk)/σk22/2)]? ? ? ? ? ?(6)
其中“/”表示逐位相除。圖鄰接矩陣是通過測量類內(nèi)節(jié)點(diǎn)表示之間的親和度來計(jì)算的:[Αintra=fnorm(VΤ×V)∈Rk×k],其中[fnorm]表示歸一化運(yùn)算。
3)圖卷積網(wǎng)絡(luò)模塊
本文將[Vc]輸入圖卷積網(wǎng)絡(luò)模塊中進(jìn)行圖內(nèi)推理來增強(qiáng)圖表示,從而得到偽裝人員的偏振特征表示。圖卷積運(yùn)算[fgc]的實(shí)現(xiàn)與文獻(xiàn)[16]中相似:
[V′c=fgc(Vc)=g(AintracVcWc)∈Rc×k]? ? ? ? ? ? ? ? ? ? (7)
其中[g(?)]是非線性激活函數(shù),[Wc]是圖卷積層可學(xué)習(xí)的參數(shù),和[Aintrac]表示[Vc]圖鄰接矩陣。
4)圖逆映射模塊
為了把增強(qiáng)后的偏振信息圖表示映射回原始空間中,本文將重新訪問圖映射模塊步驟中的分配值。具體來看,假定基于偏振圖像偽裝人員特征表示的分配矩陣為[Qc=qkcK-1k=0],其中[qkc=qic(h×w)-1i=0]。圖逆映射運(yùn)算可以定義為式(8):
[Fc=QcVΤc+Flc,Qc∈R(h×w)×k]? ? ? ? ? ? ? ? ? ? ?(8)
其中[Fc]表示的是增強(qiáng)后偽裝人員的偏振特征信息。最后,將[Fc]輸入ResNet50網(wǎng)絡(luò)中提取四個(gè)不同尺度的特征向量[F1c,F(xiàn)2c,F(xiàn)3c,F(xiàn)4c]。
2.3 金字塔池化模塊
金字塔池化模塊主要進(jìn)行不同尺度特征向量的提取,從而克服偽裝人員姿態(tài)復(fù)雜的問題。在金字塔網(wǎng)絡(luò)(FPN)[14]的基礎(chǔ)上,本文設(shè)計(jì)了一種金字塔池化模塊,主要由四個(gè)自適應(yīng)池化分支組成,如圖5所示。金字塔池化模塊的輸入向量為[F1c,F(xiàn)2c,F(xiàn)3c,F(xiàn)4c],經(jīng)過自適應(yīng)池化操作[Avepool(?)]后,再分別經(jīng)過1×1卷積層運(yùn)算[conv1×1(?)]后得到特征向量,如式(9)所示:
[Fp1=conv1×1(Avepool(F1c))Fp2=conv1×1(Avepool(F2c))Fp3=conv1×1(Avepool(F3c))Fp4=conv1×1(Avepool(F4c))]? ? ? ? ? ? ? ? ? ? ? ? (9)
最后,輸入金字塔網(wǎng)絡(luò)中進(jìn)行多尺度特征圖的融合,具體來說,使用上采樣操作將較高層級(jí)的特征圖進(jìn)行插值得到與相應(yīng)低層級(jí)特征圖尺寸相匹配的特征圖,然后通過逐元素相加的方式將它們進(jìn)行融合。
3 實(shí)驗(yàn)分析
為了驗(yàn)證本文算法檢測偽裝人員的準(zhǔn)確率,本文構(gòu)建了三個(gè)基于偏振圖像的偽裝人員數(shù)據(jù)集,并與目前大部分檢測算法進(jìn)行大量的對(duì)比實(shí)驗(yàn)。同時(shí),對(duì)圖卷積網(wǎng)絡(luò)提取偏振信息的有效性進(jìn)行驗(yàn)證實(shí)驗(yàn)。
3.1 實(shí)驗(yàn)設(shè)置
1)數(shù)據(jù)集
基于偏振圖像的偽裝人員數(shù)據(jù)集共由3類偽裝模式、4712張偏振圖像組成,其中可劃分為1 506張圖像的Woodland偽裝人員數(shù)據(jù)集(Woodland)、1 706張圖像的ACU偽裝人員數(shù)據(jù)集(ACU)和1 500張圖像的Multicam偽裝人員數(shù)據(jù)集(Multicam)。數(shù)據(jù)集中的偏振圖像由分焦平面彩色偏振相機(jī)(LUCID TRI050S-QC)采集得到,采用偏振圖像去馬賽克處理算法將原始偏振圖像處理為四個(gè)方向偏振圖像(0°,45°,90°,135°)。數(shù)據(jù)集中偽裝場景主要包括樹林、林地和灌木林等,季節(jié)包括春季、夏季和冬季等,偽裝人員姿態(tài)復(fù)雜多變,部分遮擋場景較多,檢測難度較大。訓(xùn)練集與測試集按照9:1比例劃分,訓(xùn)練集由4 242張偏振圖像組成,測試集由470張偏振圖像組成。采集得到的原始偏振圖像大小為2 048×2 048。
2)參數(shù)部署
本文所提算法基于Pytorch框架進(jìn)行訓(xùn)練,調(diào)整訓(xùn)練階段網(wǎng)絡(luò)的輸入圖像(resize)寬高為640×640,訓(xùn)練最大迭代輪次(epoch)為100,初始學(xué)習(xí)率設(shè)置為0.001,每次迭代數(shù)量為16,訓(xùn)練時(shí)優(yōu)化方法選擇隨機(jī)梯度下降法(SGD),在搭載8塊NVIDIA GTX 1080Ti的服務(wù)器上訓(xùn)練本文所提出的網(wǎng)絡(luò)模型時(shí)長約18小時(shí)。
3)評(píng)價(jià)準(zhǔn)則
本文采用檢測精度AP來評(píng)價(jià)模型算法,其表示偽裝人員的檢測正確率。檢測精度AP由精確率和召回率計(jì)算,精確率[P]計(jì)算公式為:
[P=TPTP+FP]? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(8)
召回率[R]計(jì)算公式為:
[R=TPTP+FN]? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(9)
其中TP表示被正確地預(yù)測為偽裝人員的個(gè)數(shù),F(xiàn)P表示被正確地預(yù)測為非偽裝人員的個(gè)數(shù),F(xiàn)N表示被錯(cuò)誤地預(yù)測為非偽裝人員的個(gè)數(shù)。而檢測精度AP則為:
[AP=1μr∈μpin(r)]? ? ? ? ? ? ? ? ? ? ? ? ? (10)
式中,[μ]表示給定召回率[R]的個(gè)數(shù),[pin(r)]表示大于給定召回率在所有召回率中對(duì)應(yīng)的最大精確率。
3.2 對(duì)比實(shí)驗(yàn)分析
為了驗(yàn)證本文所提算法的偽裝人員檢測正確率,將本文算法與現(xiàn)有的經(jīng)典目標(biāo)檢測算法RetinaNet[17]、YOLOv5[18]、Faster R-CNN[14]和DERT[19]在Woodland數(shù)據(jù)集、ACU數(shù)據(jù)集和Multicam數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表1和圖6所示,表中為檢測精度AP(%)、AP50(%)和AP75(%),加粗?jǐn)?shù)據(jù)為每一列中的檢測精度的最高值;圖6中紅色邊框表示在三個(gè)數(shù)據(jù)集上偽裝人員的檢測結(jié)果(為了便于讀者閱讀,本文將偏振圖像轉(zhuǎn)化為RGB圖像進(jìn)行展示檢測結(jié)果)。
從表1中可以看出,本文算法的檢測精度AP(%)、AP50(%)和AP75(%)在三個(gè)數(shù)據(jù)集上均高于四種經(jīng)典目標(biāo)檢測算法檢測精度,其中,本文算法檢測精度AP(%)在Multicam數(shù)據(jù)集、Woodland數(shù)據(jù)集和ACU數(shù)據(jù)集分別高于DERT算法0.9%、4.1%和9.2%。雖然這四種算法在通用目標(biāo)檢測精度較好,但是由于偽裝人員的顏色、紋理信息高度相似性,很難提取偽裝人員的可區(qū)分性特征表示,導(dǎo)致偽裝人員檢測精度不高。而本文算法將基于偏振圖像提取偽裝人員的差異性偏振特征,有效提升檢測精度。
3.3 消融實(shí)驗(yàn)分析
為了驗(yàn)證圖卷積網(wǎng)絡(luò)學(xué)習(xí)偏振圖像中偽裝人員的全局偏振信息的效果,將本文的圖卷積偏振信息提取網(wǎng)絡(luò)與傳統(tǒng)的偏振特征偏振度、偏振角等進(jìn)行驗(yàn)證對(duì)比實(shí)驗(yàn)。如表2所示,表中第二行表示是將偏振度圖(DoLP)、偏振角圖(AoP)與總強(qiáng)度圖([S0])組合作為檢測器的輸入進(jìn)行實(shí)驗(yàn)的檢測精度AP(%)、AP50(%)和AP75(%)的結(jié)果。第三行是將斯托克斯參量[S0]、[S1]和[S2]組合作為檢測器的輸入進(jìn)行實(shí)驗(yàn)的檢測精度結(jié)果。第四行是沒有采用圖卷積網(wǎng)絡(luò)提取偏振特征,而是利用卷積神經(jīng)網(wǎng)絡(luò)ResNet[15]提取偏振特征后進(jìn)行偽裝人員檢測的精度結(jié)果。
從表中可以看出,本文算法的檢測精度AP(%)、AP50(%)和AP75(%)均高于傳統(tǒng)偏振特征參量圖像組合和斯托克斯參量圖像組合,同時(shí),也優(yōu)于利用卷積神經(jīng)網(wǎng)絡(luò)ResNet[15]提取偏振特征的檢測精度。實(shí)驗(yàn)結(jié)果表明,本文算法中的圖卷積網(wǎng)絡(luò)能有效利用非正交方向的偏振特性之間關(guān)系,學(xué)習(xí)獲得偽裝人員與背景的差異性特征表示,從而有效提高檢測精度。
4 結(jié)束語
為了解決和克服偽裝人員顏色紋理相似、姿態(tài)復(fù)雜、局部遮擋嚴(yán)重,以及傳統(tǒng)偏振特征參量在偽裝模式下的干擾性等問題,本文提出一種基于圖卷積網(wǎng)絡(luò)的偏振圖像偽裝人員檢測算法架構(gòu),該架構(gòu)主要包括圖卷積偏振信息提取網(wǎng)絡(luò)、金字塔池化網(wǎng)絡(luò)和檢測器三部分組成。利用圖卷積網(wǎng)絡(luò)學(xué)習(xí)偏振圖像中的全局偏振特征表示,增強(qiáng)偽裝人員與背景的差異性信息。構(gòu)建了三類偽裝模式的自建偽裝人員數(shù)據(jù)集,通過大量實(shí)驗(yàn)表明,本文所提算法檢測精度均優(yōu)于現(xiàn)有的經(jīng)典檢測算法,有效提升偽裝人員檢測的正確率。
本文僅針對(duì)偽裝人員檢測進(jìn)行了實(shí)驗(yàn)驗(yàn)證,在其他偽裝模式和偽裝目標(biāo)中還應(yīng)繼續(xù)研究。后續(xù)基于偏振圖像的偽裝人員檢測研究工作還將進(jìn)一步探索更多偽裝模式下的偏振特性表示,對(duì)于算法模式的魯棒性與泛化能力還將繼續(xù)研究提升。
參考文獻(xiàn):
[1] 史宇.利用深度學(xué)習(xí)進(jìn)行目標(biāo)檢測[J].電腦知識(shí)與技術(shù),2022,18(24):88-90.
[2] SONG L M,GENG W D.A new camouflage texture evaluation method based on WSSIM and nature image features[C]//2010 International Conference on Multimedia Technology.Ningbo,China.IEEE,2010:1-4.
[3] BHAJANTRI N U,NAGABHUSHAN P.Camouflage defect identification:a novel approach[C]//9th International Conference on Information Technology (ICIT'06).Bhubaneswar,India.IEEE,2006:145-148.
[4] XUE F,CUI G Y,HONG R C,et al.Camouflage texture evaluation using a saliency map[J].Multimedia Systems,2015,21(2):169-175.
[5] LE T N,NGUYEN T V,NIE Z L,et al.Anabranch network for camouflaged object segmentation[J].Computer Vision and Image Understanding,2019,184:45-56.
[6] FAN D P,JI G P,SUN G L,et al.Camouflaged object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Seattle,WA,USA.IEEE,2020:2774-2784.
[7] 曾恒亮,張孟偉,劉征,等.利用偏振特性因子的偏振成像目標(biāo)探測實(shí)驗(yàn)[J].光電工程,2016,43(2):22-26.
[8] MONDAL A.Camouflaged object detection and tracking:a survey[J].International Journal of Image and Graphics,2020,20(4):2050028.
[9] JIANG Z H.Object modelling and tracking in videos via multidimensional features[J].ISRN Signal Processing,2011,2011:173176.
[10] ZHANG X,ZHU C,WANG S,et al.A Bayesian approach to camouflaged moving object detection[J].IEEE Transactions on Circuits and Systems for Video Technology,2017,27(9):2001-2013.
[11] ZHANG L,DAI J,LU H C,et al.A Bi-directional message passing model for salient object detection[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:1741-1750.
[12] LAMDOUAR H,YANG C,XIE W D,et al.Betrayed by motion:camouflaged object discovery via motion segmentation[C]//Proceedings of the Asian Conference on Computer Vision,2020.
[13] LI A X,ZHANG J,LV Y Q,et al.Uncertainty-aware joint salient object and camouflaged object detection[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Nashville,TN,USA.IEEE,2021:10066-10076.
[14] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[15] HE K M,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:770-778.
[16] KIPF T N,WELLING M.Semi-supervised classification with graph convolutional networks[EB/OL].[2022-10-20].https://arxiv.org/abs/1609.02907.
[17] LIN T Y,GOYAL P,GIRSHICK R,et al.Focal loss for dense object detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):318-327.
[18] 王楊,曹鐵勇,楊吉斌,等.基于YOLO v5算法的迷彩偽裝目標(biāo)檢測技術(shù)研究[J].計(jì)算機(jī)科學(xué),2021,48(10):226-232.
[19] SIRISHA M,SUDHA S V.TOD-Net:an end-to-end transformer-based object detection network[J].Computers and Electrical Engineering,2023,108:108695.
【通聯(lián)編輯:謝媛媛】