国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學習的偽裝目標檢測綜述

2022-12-19 03:00:08史彩娟任弼娟王子雯閆巾瑋
計算機與生活 2022年12期
關(guān)鍵詞:紋理特征性能

史彩娟,任弼娟,王子雯,閆巾瑋,石 澤

1.華北理工大學 人工智能學院,河北 唐山 063210

2.河北省工業(yè)智能感知重點實驗室,河北 唐山 063210

偽裝是自然界中廣泛存在的一種生物現(xiàn)象,它可以幫助自然界中的生物利用自身結(jié)構(gòu)和生理特征來融入周圍環(huán)境,從而躲避捕食者。除了自然界的生物偽裝,還存在人工偽裝,如軍事中的迷彩偽裝士兵以及藝術(shù)中的人體彩繪等。為了識別這些完美嵌入周圍環(huán)境中的偽裝生物和人工偽裝目標,研究者們提出了許多偽裝目標檢測(camouflaged object detection,COD)方法。然而,與其他任務(wù)(普通目標檢測[1-3]、顯著性目標檢測(salient object detection,SOD)[4-6])相比,偽裝目標在紋理、顏色、形狀等與背景高度相似,且其邊界與周圍環(huán)境的視覺辨識度極低,這導致檢測偽裝目標更具挑戰(zhàn)性。圖1 展示了多種類型的偽裝目標,其中(1)~(4)為自然偽裝,(5)和(6)為人工偽裝。具體來說,(1)為陸地類偽裝生物,(2)為水生類偽裝生物,(3)為飛行類偽裝生物,(4)為爬行類偽裝生物,(5)為偽裝士兵,(6)為人體彩繪偽裝目標。

圖1 從4個COD數(shù)據(jù)集中選取的多種類型偽裝目標Fig.1 Various types of camouflaged objects selected from 4 COD datasets

偽裝目標檢測最早可以追溯到1998年[7],Tankus等人提出的非邊緣感興趣區(qū)域機制對自然環(huán)境和作戰(zhàn)場景中的人工偽裝目標進行檢測。自此以后,研究者們利用人類識別目標時的直接視覺特征,如顏色、紋理、光流等來描述偽裝目標,提出了多種基于傳統(tǒng)特征提取的偽裝目標檢測方法[8-13]。但是,傳統(tǒng)方法在面對前景和背景對比度極低的偽裝場景時,通常存在手工提取特征耗時、遷移性較差、檢測性能較低等問題。

近年,為了解決傳統(tǒng)方法存在的問題,研究者們將深度學習引入到偽裝目標檢測領(lǐng)域并提出了多種基于深度學習的偽裝目標檢測模型?;谏疃葘W習的偽裝目標檢測方法以強大的特征提取能力和自主學習能力對偽裝目標信息進行建模,能夠提升偽裝目標檢測的精度,同時還能增強偽裝目標檢測模型的泛化性。然而現(xiàn)有的偽裝目標檢測工作大多從模型結(jié)構(gòu)出發(fā),旨在改善偽裝目標檢測和分割的性能,而關(guān)于偽裝目標檢測的發(fā)展現(xiàn)狀及發(fā)展前景分析較少。雖然Bi 等人[14]對偽裝目標檢測方法進行了梳理,但主要是對傳統(tǒng)的基于手工特征提取的方法進行了分類梳理,對近年來基于深度學習的偽裝目標檢測方法概述不全面且缺乏歸類分析。

因此,本文將對基于深度學習的偽裝目標檢測算法進行歸納總結(jié)。首先從五個角度對現(xiàn)有基于深度學習的COD 算法進行了詳細分析;其次介紹了偽裝目標檢測中常用的數(shù)據(jù)集和評估準則;然后對基于深度學習的檢測方法進行了性能比較;接著列舉了偽裝目標檢測的應(yīng)用領(lǐng)域;最后分析了偽裝目標檢測方法面臨的挑戰(zhàn)以及未來研究方向,為后續(xù)提出新的偽裝目標檢測模型提供一定的技術(shù)思路和改進方向。

1 基于深度學習的偽裝目標檢測模型

近年,基于深度學習的偽裝目標檢測成為當前目標檢測領(lǐng)域的一個研究熱點,越來越多基于深度學習的偽裝目標檢測算法不斷被提出,檢測精度、時效性等均得到不斷提升。

現(xiàn)有的大部分基于深度學習的偽裝目標檢測方法首先采用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN),如VGG(visual geometry group)[15]、ResNet(residual neural network)[16]、Res2Net[17]等提取特征,然后采用由粗到細、多任務(wù)學習、置信感知學習、多源信息融合、Transformer 等不同策略來進一步增強特征,進而提升偽裝目標檢測性能。

因此,本文從由粗到細策略、多任務(wù)學習策略、置信感知學習策略、多源信息融合策略和Transformer策略五個角度對現(xiàn)有基于深度學習的偽裝目標檢測方法進行深入分析。圖2 給出了現(xiàn)有基于深度學習的偽裝目標檢測方法導圖,列出了現(xiàn)有基于五種不同策略的23種偽裝目標檢測方法以及它們的主干網(wǎng)絡(luò)情況。下面對基于這五種策略的偽裝目標檢測方法進行詳細的分析。

圖2 基于深度學習的偽裝目標檢測方法導圖Fig.2 Map of camouflaged object detection methods based on deep learning

1.1 基于由粗到細策略的偽裝目標檢測

由粗到細策略是一種結(jié)合全局預(yù)測和局部細化的體系結(jié)構(gòu),這種結(jié)構(gòu)可以將復(fù)雜目標進行解耦,先對整體區(qū)域進行粗糙預(yù)測,再通過多種手段細化預(yù)測。根據(jù)細化手段的不同,現(xiàn)有的基于由粗到細策略的偽裝目標檢測方法又可以分為三類:利用特征融合細化的偽裝目標檢測方法、利用分心挖掘細化的偽裝目標檢測方法和利用邊緣線索細化的偽裝目標檢測方法。

1.1.1 利用特征融合細化的偽裝目標檢測方法

利用特征融合進行細化是指在初始提取特征后,采用密集連接、X 形連接或者以注意力引導等方式融合特征進行細化,實現(xiàn)特征增強。Fan 等人[18]使用搜索注意力和部分解碼器組件(partial decoder component,PDC)[19]對粗糙區(qū)域進行細化,PDC 的結(jié)構(gòu)如圖3(a)所示。但是,這種密集連接的特征融合方式可能會導致計算冗余。因此,Wang 等人[20]提出D2CNet,在PDC的基礎(chǔ)上引入整體注意、殘差注意機制來增強特征,并采用優(yōu)化后的U-Net[21]結(jié)構(gòu)融合對等層的局部信息進行細化。但是該模型在產(chǎn)生最終預(yù)測時直接引入第三層特征而未作任何處理,可能會引入誤導信息。Zhuge 等人[22]針對多層特征利用不足的問題,提出CubeNet 模型,通過構(gòu)建一種X 形連接(見圖3(b))以多入多出的結(jié)構(gòu)進行特征融合,充分考慮到每一層初始特征,但同時層層傳遞特征可能會積累冗余信息。

圖3 不同特征融合策略的示意圖Fig.3 Different feature fusion strategies

除了這三種構(gòu)建不同連接通路進行特征融合的方式外,Sun 等人[23]利用注意力引導進行特征融合。他們設(shè)計了C2F-Net(context-aware cross-level fusion network)模型,利用多尺度通道注意力引導來聚合跨層次特征,同時關(guān)注全局和局部信息,從而提升多尺度目標檢測性能。但是,該方法在粗糙預(yù)測和細化階段都僅使用融合策略,這可能會使圖像中難以被檢測到的困難像素始終不被關(guān)注到。

利用特征融合進行細化的偽裝目標檢測方法優(yōu)點在于能夠在不增加額外線索的前提下充分利用多層特征中的有用信息。但是由于偽裝目標與背景極為相似的部分區(qū)域僅通過特征融合策略難以被關(guān)注,使得模型的細化范圍存在一定局限性。

1.1.2 利用分心挖掘細化的偽裝目標檢測方法

分心挖掘是指發(fā)現(xiàn)預(yù)測中前景或背景中的異質(zhì)干擾,并移除這些干擾以獲得目標對象更純粹的特征表示。Mei等人[24]提出PFNet(positioning and focus network)模型,將更高層預(yù)測圖和取反后的預(yù)測圖分別與當前層特征相乘并輸入到上下文探索塊中以發(fā)現(xiàn)假陽性和假陰性預(yù)測,接著分別使用逐元素減法和減法來抑制這兩種干擾,由于使用簡單的加減法,使得模型有著較快的推理速度,但是直接將當前特征與預(yù)測先驗直接相乘可能會導致特征混淆的問題。Fan等人[25]提出的SINetV2模型使用組反向注意力很好地解決了上述問題,它是將候選特征沿通道進行分組后,在每組之間周期性地插入預(yù)測先驗,以明確隔離二者的方式來緩解特征混淆和先驗中積累的不準確預(yù)測的問題。除此之外,SINetV2對PDC進行改進,設(shè)計了一種新的特征融合方式NCD(neighbor connection decoder)對相鄰層特征進行融合,如圖3(c)所示。NCD 少而有效的連接方式不僅減少了計算冗余,并且特征只在相鄰層之間傳遞,進一步緩解了不同尺度特征的不一致性?;诜中耐诰虿呗缘腃OD方法優(yōu)勢在于模型通過簡單的加減法運算來消除錯誤預(yù)測的干擾,使得該策略下模型的參數(shù)量較少,運行速度也較快,但是細化前需要增強對有用特征信息的提取。

1.1.3 利用邊緣線索細化的偽裝目標檢測方法

前兩種類型的細化方法僅在上下文特征內(nèi)進行增強,然而要獲取偽裝目標的精細化結(jié)構(gòu),邊緣線索是最直接的補充方式。因此,Qin等人[26]提出BASNet(boundary-aware segmentation network)模型,學習粗略預(yù)測圖和GT之間的殘差來對粗糙預(yù)測進行細化,并設(shè)計了一種結(jié)合二進制交叉熵損失[27]、結(jié)構(gòu)相似性損失[28]和IoU損失[29]的混合損失來隱式地引導網(wǎng)絡(luò)更加關(guān)注目標邊界信息,因此BASNet能夠在不顯式提取邊界的情況下獲取精細的偽裝目標邊界。不同于BASNet隱式關(guān)注邊緣的方法,Ji等人[30]提出ERRNet對低層特征相互加權(quán)以顯式監(jiān)督的方式獲取邊緣先驗,并通過RRU(reversible re-calibration unit)單元(如圖3(d))與其他先驗知識(語義先驗、鄰居先驗、全局先驗)融合達到細化的目的,但是由于先驗知識過多,可能使有價值的線索被淹沒。ERRNet的優(yōu)勢在于融合過程中使用了簡單的級聯(lián)和加減法運算,使得模型達到了現(xiàn)有算法中最快的推理速度。Jia 等人[31]從設(shè)計邊緣標簽的角度提出了SegMaR,利用文獻[32]設(shè)計的固定注釋和經(jīng)高斯運算擴展后的邊緣注釋以合并和相交的方式生成一種包含邊緣線索的判別掩碼,以此作為監(jiān)督來關(guān)注偽裝相關(guān)的邊緣信息。另外還設(shè)計了一種目標放大和多階段訓練的方式進行迭代細化,但是迭代優(yōu)化終止條件缺乏理論依據(jù),且多階段訓練方式導致訓練復(fù)雜且耗時。

利用邊緣線索進行細化的方式通常能獲取比較精細的邊緣輪廓,但由于偽裝目標的邊緣比較模糊(如圖1),導致使用邊緣監(jiān)督學習到的特征響應(yīng)包含噪聲,尤其是復(fù)雜場景下,因此用何種方式引入邊緣信息是該方法需要解決的一個重要問題。

1.2 基于多任務(wù)學習策略的偽裝目標檢測

多任務(wù)學習策略通過引入常見的分類、定位等任務(wù)或者其他檢測任務(wù)來輔助二值分割主任務(wù)以提升偽裝目標的檢測性能,通過多種任務(wù)的協(xié)同工作,以挖掘更加豐富的偽裝目標信息。根據(jù)任務(wù)的不同,基于多任務(wù)學習策略的偽裝目標檢測方法主要分為:基于分類+分割的偽裝目標檢測方法、基于定位/排序+分割的偽裝目標檢測方法、基于仿生攻擊+分割的偽裝目標檢測方法、基于紋理檢測+分割的偽裝目標檢測方法和基于邊緣檢測+分割任務(wù)的偽裝目標檢測。

1.2.1 基于定位/排序+分割的偽裝目標檢測方法

基于定位/排序+分割的偽裝目標檢測方法是指在分割之前找到偽裝目標所在位置,符合人類觀察偽裝目標的步驟。Lv等人[32]提出使用LSR(localization,segmentation and ranking)來定位目標并區(qū)分不同圖像中偽裝目標的偽裝級別。針對定位任務(wù),采用固定注釋作為監(jiān)督標簽來檢測明顯區(qū)別于背景的偽裝目標判別區(qū)域;分割任務(wù)將反向判別區(qū)域映射作為輸入來分割偽裝目標的整個范圍;針對排序任務(wù),構(gòu)建排序數(shù)據(jù)集用以將分割結(jié)果的每個像素按區(qū)分難易度進行排序。LSR 是首次對偽裝程度進行探索的算法,它能在分割偽裝目標的同時,為觀察偽裝目標的難易程度提供一定指引。

1.2.2 基于分類+分割的偽裝目標檢測方法

基于分類+分割的偽裝目標檢測方法是指在分割之前對圖像中的像素進行分類以檢測是否有偽裝目標的存在。Le 等人[33]提出的ANet(Anabranch network)引入分類流,采用三個全連接層和Softmax分類層輸出分類概率,并與分割流預(yù)測的偽裝映射相乘達到分割偽裝目標的目的。ANet是使用分類和分割任務(wù)的早期嘗試,它使用分類任務(wù)讓模型聚焦于包含偽裝目標的區(qū)域,為后續(xù)分割任務(wù)排除了非偽裝和背景的干擾。但由于偽裝圖像中一些非偽裝的顯著目標極具迷惑性,分類流可能會產(chǎn)生錯誤判斷導致分割失敗。

1.2.3 基于仿生攻擊+分割的偽裝目標檢測方法

仿生攻擊是通過制造與原始圖像差異較大的圖像來改變場景視點以檢測偽裝目標。Yan 等人[34]提出MirrorNet,通過引入分割翻轉(zhuǎn)圖像的仿生攻擊流來增強分割原始圖像的主流,并將仿生攻擊流的預(yù)測翻轉(zhuǎn)后與主流預(yù)測進行融合得到最終的偽裝目標預(yù)測。MirrorNet利用翻轉(zhuǎn)圖像作為補充進行分割的過程本質(zhì)上是促使模型更加關(guān)注偽裝目標的紋理和形狀特征,能在一定程度上增強模型的抗干擾能力。但是,圖像翻轉(zhuǎn)并不會改變低辨識度的紋理或者邊緣,因此,僅使用翻轉(zhuǎn)圖像作為補充得到的性能增益十分有限。

1.2.4 基于紋理檢測+分割的偽裝目標檢測方法

上述利用計算機視覺中的分類、定位等來輔助分割的方法并未考慮到偽裝特征中紋理的重要性。如圖4 所示,偽裝目標通常表現(xiàn)出邊緣模糊性,然而紋理特征具有的旋轉(zhuǎn)不變性以及抗噪能力強等特點,使得一些偽裝目標檢測方法通過引入紋理感知任務(wù)來補充深度上下文信息?,F(xiàn)有基于紋理檢測+分割任務(wù)的主要不同點在于探索紋理信息的方式不同,有的從紋理信息的表示出發(fā),設(shè)計獨特的紋理標簽;有的則關(guān)注獲取紋理信息的方法,如矩陣方法、卷積方法等來探索提取紋理特征的有效性。

圖4 具有邊緣模糊性和紋理欺騙性的偽裝目標Fig.4 Camouflaged objects with edge fuzziness and texture deception

Ren 等人[35]提出了TANet,通過計算每個位置特征響應(yīng)的協(xié)方差矩陣,以此來提取深度特征的紋理信息,同時設(shè)計親和力損失幫助分離偽裝目標與背景之間的紋理。但是由于很大一部分偽裝目標在紋理上與背景相似度仍然比較高(見圖4),而TANet的重點關(guān)注僅在紋理信息上,因此它所能獲得的檢測性能有限,而且使用卷積特征圖的協(xié)方差矩陣表征的紋理特征圖會損失位置信息。Zhu等人[36]則從紋理信息的表示出發(fā),構(gòu)建了一種包含局部紋理、局部顯著性區(qū)域以及邊緣的紋理標簽,并提出TINet(textureaware interactive guidance network)融合紋理信息與深度信息并以層間監(jiān)督的方式生成紋理預(yù)測。但該模型使用的紋理標簽并未充分體現(xiàn)像素與周圍空間鄰域的灰度分布,而且由于偽裝圖像中強烈的背景干擾,TINet并不能挖掘到充足的紋理信息。Ji等人[37]提出的DGNet(deep gradient network)引入梯度信息很好地改善了TINet 中存在的問題。DGNet 構(gòu)建了對象級的梯度映射(見圖5[38])來監(jiān)督紋理分支,相較于TINet中的紋理標簽,梯度標簽?zāi)鼙硎靖迂S富的紋理信息。同時,梯度值越高的地方意味著圖像能量的急劇變化,這也對應(yīng)著圖像的邊緣部分,因此DGNet 同時關(guān)注了紋理和邊緣信息,從而取得了良好檢測性能。但是引入梯度信息也存在一定問題,由于圖像梯度對鄰域像素值變化敏感,而圖像內(nèi)的噪聲,尤其是偽裝圖像中非邊緣區(qū)域及非偽裝的顯著區(qū)域同樣具有較高的梯度,這些噪聲在一定程度上對模型產(chǎn)生干擾。

圖5 DGNet中使用的四種監(jiān)督標簽Fig.5 Four types of supervision labels widely used in DGNet

由于偽裝目標的特殊性,基于紋理檢測來補充分割任務(wù)的方法通常能取得較好的檢測效果,但是由于一部分偽裝目標存在紋理欺騙性(如圖4),而這種情況下僅靠紋理特征來檢測偽裝目標是不夠的。因此在關(guān)注紋理信息的同時,也要考慮到局部顯著信息或者邊緣的重要性。

1.2.5 基于邊緣檢測+分割任務(wù)的偽裝目標檢測

與利用邊緣線索進行細化或者讓邊緣作為一小部分因素參與到模型中的方法不同,基于邊緣檢測+分割的任務(wù)是將邊緣檢測作為與分割并行的一大任務(wù),通過明確建模邊緣并推理兩個任務(wù)的互補信息來檢測偽裝目標。Zhai等人[38]引入圖卷積提出了MGL(mutual graph learning)來捕獲區(qū)域和邊緣,并使用邊緣壓縮圖推理模塊顯式合并邊緣信息以增強區(qū)域信息。MGL的有效性來源于使用類型化函數(shù)明確推理兩個任務(wù)的互補信息以捕獲語義信息和空間信息,但是每次提取的信息種類繁多,很難保證每次提取的信息都是有效的,而且基于圖推理的模型復(fù)雜度較高,使得模型運行速度較慢,R-MGL(MGL中性能最好的一種變體)的運行速度只有9.9 frame/s,是現(xiàn)有方法中運行最慢的方法。

以上基于多任務(wù)學習策略的方法能充分利用不同任務(wù)的特殊性以及和主任務(wù)之間的互補性來輔助偽裝目標檢測。但在實現(xiàn)的過程中,通常會忽略不同任務(wù)之間的固有差異造成的負面影響,導致偽裝目標檢測的學習缺乏針對性,影響檢測性能。

1.3 基于置信感知學習策略的偽裝目標檢測

置信感知學習旨在估計代表數(shù)據(jù)質(zhì)量的不確定性(任意不確定性)或?qū)φ鎸嵞P偷母兄淮_定性(認知不確定性)[39]。在完全監(jiān)督模型中,置信感知學習被用來測量預(yù)測與真實標簽的高階不一致性,并且它已被證實能夠有效提升深層神經(jīng)網(wǎng)絡(luò)的魯棒性[40-41]。在偽裝目標檢測任務(wù)中,一些工作引入置信感知學習策略,明確建模網(wǎng)絡(luò)預(yù)測的置信度來促進模型學習圖像中的困難樣本,以此提升模型的魯棒性。現(xiàn)有基于置信感知學習策略的偽裝目標檢測方法的主要不同在于對模型不確定性的表示和建模過程。研究者們對于完全標注偽裝目標的困難帶來的不確定性、模型預(yù)測和真實標簽之間的不一致性、不可區(qū)分的紋理或邊緣的不確定性等分別采用對抗訓練策略、動態(tài)監(jiān)督策略、正則化約束策略等進行偽裝目標檢測。

Li 等人[42]對完全標注偽裝目標時產(chǎn)生的不確定性,提出了JCSOD(joint salient object and camouflaged object detection)模型,使用全卷積判別器來估計預(yù)測結(jié)果的置信度,并采用對抗訓練策略對置信度估計顯式建模。但是,由于JCSOD同時進行顯著性目標檢測,導致模型參數(shù)量巨大,比DGNet高出196.96 MB。Liu等人[43]提出的CANet模型,使用UNet結(jié)構(gòu)對預(yù)測和真實標簽之間的不確定性進行建模,利用預(yù)測圖和真實標簽的L1距離以動態(tài)監(jiān)督的方式生成置信度圖。它的優(yōu)勢在于能夠引導網(wǎng)絡(luò)重點學習預(yù)測不確定的區(qū)域,提升網(wǎng)絡(luò)的魯棒性能。但是,關(guān)注不確定性學習得到的特征通常響應(yīng)于偽裝目標的稀疏邊緣,導致該模型在特征學習過程中容易引入噪聲。與前面顯式生成置信度圖的方式不同,Pang等人[44]對不可區(qū)分紋理和復(fù)雜背景干擾帶來的不確定性進行建模,提出的Zoom-Net 在目標檢測損失中加入正則化約束,增加對模糊預(yù)測的懲罰,來迫使模型關(guān)注不確定像素,這種方式以簡單的計算降低模糊背景帶來的干擾。除此之外,Zoom-Net 還致力于緩解多尺度目標的檢測,但是它用多尺度圖像訓練模型大大增加了內(nèi)存占用量和模型運算量。

以上幾個模型對不確定性采用不同策略進行建模來提升偽裝目標的檢測性能,這種基于置信感知學習的方法為模型難以關(guān)注硬像素提供了很好的解決思路,能夠增強模型的魯棒性能,同時還能以估計置信度圖的方式為模型預(yù)測提供一定的可解釋性。但是這種從不確定性模型中學習到的特征通常響應(yīng)于偽裝目標的稀疏邊緣或者難以區(qū)分區(qū)域,從而容易引入噪聲,降低模型的檢測能力。

1.4 基于多源信息融合策略的偽裝目標檢測

前面所有模型僅采用RGB信息進行偽裝目標檢測,為了獲得更加豐富的偽裝目標信息,一些研究者采用多源信息,如深度信息、頻域信息等來補充RGB信息,從而提升偽裝目標檢測性能。

由于深度圖能夠提供豐富的空間信息,Zhang等人[45]首次利用現(xiàn)有的單目估計方法生成相應(yīng)的偽裝深度圖,并提出基于RGB-D 置信感知學習的雙分支框架DCNet(depth contribution exploration network)。由于引入了包含豐富空間信息的深度線索,DCNet整體取得了不錯的性能。但它存在兩個問題:一是提取的深度信息不夠準確,低質(zhì)量深度圖導致模型性能降低;二是RGB數(shù)據(jù)和深度數(shù)據(jù)結(jié)合時,DCNet沒有充分考慮兩種模態(tài)信息之間的互補性和差異性。

頻域處理有著簡單高效且參數(shù)設(shè)置少的特點,因此,有研究者利用頻域信息來增強偽裝特征。Zhong 等人[46]使用離線離散余弦變換和在線可學習增強的方式讓模型在頻域中學習更多統(tǒng)計信息,同時使用特征對齊的方式對兩種線索進行融合,另外構(gòu)建了高階關(guān)系模塊借助頻域信息來促使模型區(qū)分偽裝和非偽裝的細微差異。得益于頻域信息的引入以及對所有頻帶系數(shù)的增強,該模型可以提取判別性信息提升偽裝目標檢測性能。

由于多源信息的引入,使得偽裝目標檢測性能優(yōu)于僅采用RGB 信息的檢測性能。但是,多源信息之間的表示、轉(zhuǎn)化、對齊以及融合等加大了偽裝目標檢測模型的復(fù)雜度,甚至在多源信息處理不當?shù)那闆r下降低模型檢測準確度。因此在結(jié)合多源信息時,需要充分考慮多源信息之間的差異性影響。

1.5 基于Transformer的偽裝目標檢測

近年,研究發(fā)現(xiàn)CNN 在特征提取過程中會損失結(jié)構(gòu)信息,而且CNN 的實際感受野遠小于理論感受野[47],因此基于CNN 的偽裝目標檢測模型通常不能充分地捕獲全局上下文信息。2017年,Vaswani等人針對自然語言處理提出的Transformer[48]能夠利用自注意力捕獲長距離依賴關(guān)系,更好地捕獲全局信息。近年Transformer也被廣泛應(yīng)用到了視覺領(lǐng)域[49-50],多種Transformer模型被提出,如用于分類的ViT(vision transformer)[51]和PVT(pyramid vision transformer)[52],用于目標檢測和分割的SETR(segmentation transformer)[53]、DETR(detection transformer)[54]和Swin Transformer[55]等。由于Transformer 在計算機視覺領(lǐng)域中的巨大潛力,研究者們也將其引入到了偽裝目標檢測任務(wù)中。

Mao 等人[56]提出T2Net 模型,利用Swin Transformer作為主干網(wǎng)提取豐富的全局偽裝特征,并利用一種基于殘差注意力和密集金字塔池化的深度監(jiān)督結(jié)構(gòu)來緩解Swin Transformer 不直接提供空間監(jiān)督的問題。得益于Transformer強大的全局信息捕獲能力,T2Net的檢測精度優(yōu)于現(xiàn)有基于CNN的偽裝目標檢測方法。但是T2Net 在將Transformer 引入到COD任務(wù)中時,主要緩解了Transformer 對空間信息建模效果較差的問題,并未充分考慮到提取局部特征能力的欠缺。不同于T2Net 直接使用Transformer 的主干網(wǎng)來提取特征的方法,Yang 等人[57]提出的UGTR(uncertainty-guided transformer reasoning)將CNN 和Transformer結(jié)合起來,利用概率表示模型學習Transformer框架下偽裝目標的不確定性,使得模型能更多關(guān)注不確定區(qū)域。但它僅對不確定性建模,使得模型的不確定響應(yīng)區(qū)域總是分布在弱邊界和不可區(qū)分的紋理區(qū)域,學習過程中不可避免地會引入噪聲。

基于Transformer 的COD 模型可表征的特征空間比CNN 更加豐富,并且它在建模過程中不會丟失細粒度信息,因此Transformer 是比較適合類似COD這種迫切需要豐富全局上下文信息的任務(wù)。但是基于Transformer 的COD 模型也存在固有缺陷:一是模型預(yù)訓練耗時耗數(shù)據(jù),這是由全局自注意機制具有二次的時間和空間復(fù)雜度導致的;二是Transformer特征存在局部信息欠缺以及過度光滑的問題;三是在訓練過程中,基于Transformer的模型對學習率、權(quán)重衰減等參數(shù)比較敏感。由于Transformer固有的利弊,基于Transformer 進行偽裝目標檢測還存在很大的研究空間。

1.6 不同類型偽裝目標檢測方法比較

表1 給出了以上五種基于不同策略機制的偽裝目標檢測的典型方法以及它們的優(yōu)缺點。

通過以上分析及表1可以看出,現(xiàn)有基于深度學習不同策略的偽裝目標檢測方法各有優(yōu)劣。目前對于基于由粗到細策略和多任務(wù)學習策略的偽裝目標檢測方法研究較多,但這兩種方法固有的缺陷使得研究者們逐步引入后三種學習策略。Transformer策略雖然能夠捕獲更加豐富的全局上下文,但是它不能有效應(yīng)對偽裝目標的尺度變化,而且訓練需要巨大的算力和時間,不能滿足實時性需求。多源信息融合策略能引入其他信息來補充RGB 信息,多種信息的有效結(jié)合能夠有效提升偽裝目標的檢測性能。置信感知學習策略作為一種有效提升網(wǎng)絡(luò)魯棒性的手段,可以與其他策略結(jié)合起來,共同提高偽裝目標檢測的性能。

表1 不同類型偽裝目標檢測方法分析比較Table 1 Analysis and comparison of different types of camouflaged object detection methods

2 數(shù)據(jù)集和評估指標

本部分介紹了偽裝目標檢測常用的數(shù)據(jù)集和評估指標。

2.1 數(shù)據(jù)集

由于檢測難度和偽裝目標的特殊性,偽裝目標檢測任務(wù)在最近幾年才開始得到廣泛關(guān)注,因此COD公開數(shù)據(jù)集僅有四個,具體信息如表2所示。

表2 四個偽裝目標檢測數(shù)據(jù)集的主要信息Table 2 Main information of four camouflaged object detection datasets

CHAMELEON[19]數(shù)據(jù)集:是一個未經(jīng)同行評議的公開數(shù)據(jù)集,僅包含76張從網(wǎng)上以關(guān)鍵字“偽裝的動物”收集匯總的圖像,它主要關(guān)注自然界的生物偽裝,即復(fù)雜背景中的偽裝動物。該數(shù)據(jù)集通常用于驗證偽裝目標檢測模型的可用性。

CAMO[34]數(shù)據(jù)集:該數(shù)據(jù)集包含一個偽裝圖像數(shù)據(jù)集CAMO 和另一個非偽裝圖像數(shù)據(jù)集MS-COCO兩個子集。CAMO 和MS-COCO 各包括1 250 張圖像,其中1 000張用于訓練,剩余250張用于測試。常用于偽裝任務(wù)的CAMO 數(shù)據(jù)集包括自然偽裝(偽裝動物)和人工偽裝(人體彩繪及軍事中的迷彩偽裝),具有較大的識別難度,可用于驗證偽裝模型的有效性。

COD10K[19]數(shù)據(jù)集:該數(shù)據(jù)集是目前規(guī)模最大的偽裝目標數(shù)據(jù)集,共包含了5個超類和69個子類,共計10 000 張偽裝圖像(6 000 張用于訓練,4 000 張用于測試)。該數(shù)據(jù)集的偽裝目標類別包含有自然偽裝中的陸地、海洋、飛行、兩棲生物,目標維度包括大、中、小三個維度,可以進行模型訓練和驗證,目標標注包括類別、包圍盒、對象級/實例級以及摳圖級的注釋。該數(shù)據(jù)集極大地促進了偽裝目標檢測的發(fā)展。

NC4K[33]數(shù)據(jù)集:是目前最大的偽裝目標測試集,它包含從互聯(lián)網(wǎng)上下載的4 121張偽裝圖像,其中偽裝目標類別大部分為自然偽裝,也包含少量人工偽裝。

2.2 評估指標

偽裝目標檢測通常被定義為二值圖像分割任務(wù),為了全面評估偽裝模型的精度和泛化能力,廣泛使用S度量、E度量、F度量和平均絕對誤差M來測試每個模型的生成預(yù)測圖。接下來將詳細介紹這幾種評價指標。

S度量(Sα)[58]:用來評估預(yù)測圖和真值圖之間的結(jié)構(gòu)相似性,它包括兩個參數(shù)So和Sr,其中So計算目標感知,Sr獲取區(qū)域觀測特征。S度量Sα可以被描述為:

其中,α和o是權(quán)重。

E度量(E?)[59]:通過比較預(yù)測圖和真值圖之間的差異來評估偽裝目標檢測結(jié)果的整體和局部精度。E度量E?定義為:

其中,?是增強一致性矩陣,W和H分別代表輸入的寬度和高度,C和G分別表示預(yù)測圖和真值圖。

F度量(Fβ)[60]:用來計算精確率P和召回率R的關(guān)系,能夠計算出P和R之間的平均諧波測量值,并將其數(shù)值顯示出來。F度量Fβ定義為:

平均絕對誤差MAE(M)[61]:用來計算每個像素的平均絕對誤差,其定義式為:

其中,M值越小表示模型性能越好。

3 基于深度學習的偽裝目標檢測方法性能比較

本章對現(xiàn)有的基于深度學習的偽裝目標檢測方法進行了性能比較,包括定量比較、視覺比較和模型效率分析,從比較結(jié)果能夠更為直觀地看出不同方法之間的性能差異。

3.1 定量比較

本節(jié)對上述基于深度學習的不同偽裝目標檢測方法進行了定量比較,采用S度量(Sα)、E度量的平均值(E?)、F度量的平均值(Fβ)以及平均絕對誤差MAE(M)作為評估準則,在數(shù)據(jù)集CHAMELEON、CAMO、COD10K、NC4K 上分別進行了實驗,實驗結(jié)果見表3。表中“1”“2”“3”“4”“5”分別代表“由粗到細策略”“多任務(wù)學習策略”“置信感知學習策略”“多源信息融合策略”和“Transformer策略”。

表3 基于深度學習的偽裝目標檢測方法的定量比較Table 3 Quantitative comparison of camouflaged target detection methods based on deep learning

從表3可以看出:

(1)從整體表現(xiàn)來看,T2Net 在CAMO-Test、COD10K-Test 和NC4K 三個數(shù)據(jù)集的四個指標上均達到了最佳性能,在CHAMELEON 數(shù)據(jù)集上達到了第二的性能。T2Net是基于Transformer的模型,它利用自注意捕獲長距離依賴關(guān)系的優(yōu)勢適合偽裝目標檢測這種需要全面上下文信息的任務(wù),而T2Net在四個偽裝數(shù)據(jù)集上的突出性能表明了Transformer應(yīng)用在偽裝目標檢測任務(wù)的巨大潛力。性能排名第二的是Zoom-Net,它是基于置信感知學習策略的方法,能更加關(guān)注不確定像素的檢測,另外該模型的性能優(yōu)越性還受益于放大縮小策略對多尺度信息的獲取。性能排名第三和第四的是DCNet和FDNet(frequency domain network),這兩種是基于多源信息融合策略的方法,由于額外深度信息或頻域信息作為補充,這兩種算法表現(xiàn)出了較高的檢測精度?;贑NN且不引入其他源信息的算法中,DGNet達到了與Zoom-Net相抗衡的性能,尤其在CAMO數(shù)據(jù)集上。除了整體性能最好的以上五種方法外,BASNet在CHAMELEON數(shù)據(jù)集上達到了最佳性能,這得益于它使用的U-Net結(jié)構(gòu)以及混合損失,但它在偽裝類型更加全面而且數(shù)據(jù)量更大的另外三個數(shù)據(jù)集上并未達到突出的檢測性能。

(2)從不同策略的表現(xiàn)來看,表現(xiàn)最好的是基于Transformer策略和多源信息融合策略的偽裝目標檢測方法,基于多任務(wù)學習策略和置信感知學習策略的方法在基于CNN且不引入多源信息的方法中表現(xiàn)最好,其次基于由粗到細策略中的SINetV2也表現(xiàn)出了較好的性能。不同策略均具有很高的研究價值,因此應(yīng)當權(quán)衡不同策略的優(yōu)劣設(shè)計性能更加優(yōu)越的偽裝目標檢測模型。

3.2 視覺比較

本節(jié)給出了13 種偽裝目標檢測算法在7 種不同類型偽裝目標下的視覺檢測結(jié)果,如圖6 所示,其中從左至右依次為:(1)大目標;(2)小目標;(3)多且小的目標;(4)遮擋目標;(5)重影目標;(6)邊緣細節(jié)豐富的目標;(7)人工偽裝中的人體彩繪目標和軍事偽裝目標。對于其他并未提供開放的源代碼或者結(jié)果預(yù)測圖的偽裝目標檢測方法在此沒有比較。

圖6 基于深度學習的偽裝目標檢測方法的視覺比較Fig.6 Visual comparison of deep learning-based camouflaged object detection methods

由圖6可以看出:

(1)從整體檢測效果來看,這些算法中基于Transformer 的T2Net,基于置信感知學習策略的Zoom-Net以及基于多任務(wù)學習的DGNet在多種挑戰(zhàn)場景下表現(xiàn)出了較好的檢測效果,尤其是對大目標(1)、多目標(3)和遮擋目標(4)的檢測要優(yōu)于其他算法,檢測的目標區(qū)域更加完整,輪廓也比較清晰。基于多任務(wù)學習的LSR在遮擋目標和重影目標中表現(xiàn)出了較好的檢測效果,它利用定位和排序任務(wù)對偽裝目標的檢測起到了促進作用?;谥眯鸥兄獙W習策略的JCSOD能比較完整地檢測大目標并獲取豐富的邊緣細節(jié),這是由于JCSOD聯(lián)合SOD數(shù)據(jù)并利用置信感知學習幫助模型排除非偽裝中顯著性區(qū)域的干擾?;谟纱值郊毑呗缘腟INetV2 檢測出了較為豐富的目標信息,尤其是在復(fù)雜場景下((4)(6)(7))的效果較好,這得益于鄰居連接的特征融合方式和組反向注意力的目標細化手段。值得注意的是,BASNet 檢測的目標雖然不夠完整,但是它檢測出的目標邊界和輪廓都很精細,這主要歸功于其設(shè)計的混合損失函數(shù)和類U-Net結(jié)構(gòu)的解碼器進行的細化。

(2)從不同目標的檢測效果來看,這些偽裝目標檢測方法對簡單場景下的普通偽裝目標具有較好的檢測性能,但是對挑戰(zhàn)場景下的偽裝目標的檢測性能較差。如圖6所示,這些方法對小目標、遮擋目標、人工偽裝目標中的檢測效果不佳。對于小目標,不能準確定位目標位置;對于遮擋目標,不能完整分離出目標信息;對于人工偽裝目標,檢測出來過多的無關(guān)信息。

通過定量分析和視覺分析可以看出,現(xiàn)有偽裝目標檢測算法能夠取得較好的檢測精度,對偽裝這種極具挑戰(zhàn)性的目標表現(xiàn)出了較好的分割結(jié)果。但是由于偽裝目標的特殊性,現(xiàn)有算法的分割結(jié)果仍然存在邊緣模糊、定位不準確等缺陷。

3.3 模型效率分析

本文在NVIDIA GeForce RTX 2080 上測試了13種COD方法(SINet[18]、C2F-Net[23]、PFNet[24]、SINetV2[25]、BASNet[26]、ERRNet[30]、SegMaR[31]、LSR[32]、DGNet[37]、MGL[38]、JCSOD[42]、Zoom-Net[44]、UGTR[57])的模型參數(shù)量、乘法和累加運算(multiply-accumulate operations,MACs)以及運行速度,結(jié)果如圖7 所示。其中(a)是參數(shù)量和COD10K數(shù)據(jù)集上Sα的散點圖,點越大,代表參數(shù)量越大。

圖7 現(xiàn)有COD方法的效率分析Fig.7 Efficiency analysis of existing COD methods

從圖中可以看出,在精度和參數(shù)之間平衡較好的模型是Zoom-Net、DGNet 和UGTR。ERRNet 的運行速度為57.8 frame/s,是比較方法中運行速度最快的模型。DGNet 的參數(shù)量和MACs 分別為21.02 MB和2.76 GB,是所有方法中參數(shù)量和MACs 最少的模型,這是由于DGNet是出于輕量化設(shè)計的模型,它使用了輕量化的主干網(wǎng)以及張量分解和重組的融合方式。同時,JCSOD的參數(shù)量最高,為217.98 MB,這是由于JCSOD聯(lián)合了SOD任務(wù)。

4 偽裝目標檢測的應(yīng)用

基于深度學習的偽裝目標檢測作為計算機視覺領(lǐng)域中的新興任務(wù),不僅可以進一步補充完善目標檢測技術(shù),還有助于推動醫(yī)學、工業(yè)、軍事、農(nóng)業(yè)、藝術(shù)等多個現(xiàn)實領(lǐng)域的智能化發(fā)展。下面對偽裝目標檢測在不同領(lǐng)域的應(yīng)用進行介紹。

(1)醫(yī)學領(lǐng)域。醫(yī)學成像在早期診斷中起著重要作用,然而早期病變區(qū)域與周圍組織有著高度的同質(zhì)性,如圖8 所示的息肉圖像和肺部感染圖像(圖像來源于文獻[62-63]),它們的邊界模糊,并且與周圍組織相似度極高,可以被視為一種偽裝目標。因此偽裝目標檢測可以應(yīng)用于醫(yī)學圖像分析,進行息肉分割和肺部感染分割。

圖8 COD在醫(yī)學領(lǐng)域的應(yīng)用Fig.8 Applications of COD in medicine

(2)工業(yè)領(lǐng)域。在工業(yè)生產(chǎn)過程,需要對質(zhì)量低劣的產(chǎn)品(如木材、紡織品、瓷磚等)進行篩選和剔除。然而如圖9 所示(圖像來源于文獻[64]),這些零件的缺陷通常在紋理等方面與其他部分對比度很低,而且邊界模糊,可以看作一種偽裝。因此,偽裝目標檢測可以用于手工藝品或機械零件等物體表面的缺陷檢測。

圖9 COD在工業(yè)領(lǐng)域的應(yīng)用Fig.9 Applications of COD in industry

(3)農(nóng)業(yè)領(lǐng)域。農(nóng)業(yè)中的害蟲通常在顏色紋理等都與農(nóng)作物極為相似,因此偽裝目標檢測可做害蟲檢測為整個環(huán)境中的蝗災(zāi)密度監(jiān)測提供統(tǒng)計數(shù)據(jù)。除此之外,果實早熟階段,為了監(jiān)控產(chǎn)量,也需要對果實進行檢測,而果實早期常與綠葉極為相似,可視作偽裝目標對其進行檢測。圖10展示了蝗蟲檢測和番茄檢測(圖像來源于文獻[65-66])。

圖10 COD在農(nóng)業(yè)領(lǐng)域的應(yīng)用Fig.10 Applications of COD in agriculture

(4)軍事領(lǐng)域。軍事中的迷彩偽裝是人工偽裝的主要組成部分,迷彩偽裝是在作戰(zhàn)環(huán)境中完美嵌入周圍環(huán)境中的人員、武器、裝備等。在作戰(zhàn)環(huán)境中,需要識別出隱藏的士兵和軍事設(shè)備,在確保他們安全的同時,提升我方軍隊的作戰(zhàn)能力。因此,偽裝目標檢測在軍事領(lǐng)域中有著很大的應(yīng)用潛力。圖11展示了迷彩偽裝士兵(圖像來源于CAMO[33])。

圖11 迷彩偽裝士兵檢測Fig.11 Camouflage soldier detection

(5)藝術(shù)領(lǐng)域。圖像的風格遷移可以將自然風景圖像與偽裝的目標嵌在一起,如圖12所示(圖像來源于文獻[67]),這可以為偽裝目標檢測提供更多的訓練數(shù)據(jù)。

圖12 動物嵌入在風景圖像中Fig.12 Some animals embedded into landscape images

(6)其他領(lǐng)域。偽裝目標檢測還可以用于透明物體的檢測、搜索引擎的完善、探測或保護野生動物以及在野外或者自然災(zāi)害中進行搜索救援活動等。

5 總結(jié)及展望

5.1 偽裝目標檢測存在的挑戰(zhàn)

本文從由粗到細、多任務(wù)學習、置信感知學習、多源信息融合以及Transformer五種策略角度對現(xiàn)有的基于深度學習的偽裝目標檢測方法進行了歸納總結(jié),分析探討了不同模型的優(yōu)劣,給出了不同方法的定量分析、視覺比較和效率分析。盡管偽裝目標檢測得到了越來越多的研究,性能不斷提升,但由于偽裝目標本身極具挑戰(zhàn)性,現(xiàn)有基于深度學習的偽裝目標檢測算法仍然存在著很多不足和挑戰(zhàn)。主要包括:

(1)復(fù)雜場景下檢測效果差?,F(xiàn)有偽裝目標檢測算法基本能實現(xiàn)簡單場景下的偽裝目標檢測,然而,現(xiàn)實中的偽裝目標通常處于背景雜亂、大面積遮擋、背景過于突出等復(fù)雜場景下,導致偽裝目標的邊界混淆和形狀的非連續(xù)性。因此,針對復(fù)雜場景下的遮擋目標、人工偽裝目標等的偽裝目標檢測仍具有很大的挑戰(zhàn)性。

(2)多尺度目標檢測性能不佳。面對實際場景下的多種尺度偽裝目標,現(xiàn)有的偽裝目標檢測方法通常不能完整檢測出大目標,無法準確定位小目標位置(將目標錯誤定位為背景比較突出的背景區(qū)域)等,導致對大目標以及多且小的偽裝目標檢測效果較差。

(3)實時性不足。目前僅有DGNet[37]是以輕量級的模型參數(shù)達到了較高的檢測精度,它在模型設(shè)計中使用更為輕量的主干網(wǎng)EfficientNet進行初始特征提取,同時在特征融合過程中使用張量分解和重組的方式減少模型參數(shù)量?,F(xiàn)有的一部分COD模型在設(shè)計中會考慮參數(shù)和精度的平衡,如SINet[18]使用非對稱卷積代替大核卷積來降低參數(shù);PFNet[24]、SINetV2[25]和ERRNet[30]使用簡單的加減法進行分心挖掘也能減少一定參數(shù)量和運算量。但是這些方法都沒重點考慮輕量化設(shè)計,致使方法的參數(shù)量和運算量依然很高,依然需要巨大的算力和時間,不能滿足實際應(yīng)用的實時性需求。

(4)有限條件下的偽裝目標檢測研究較少。相比普通目標或顯著性目標,由于偽裝目標背景復(fù)雜及邊界辨識度極低等挑戰(zhàn),使得檢測偽裝目標具有更大的難度,因此現(xiàn)有算法都以完全監(jiān)督的方式從帶有對象及標簽的圖片中提取特征,試圖達到較為理想的檢測效果。然而,就目前為止,基于完全監(jiān)督的算法實現(xiàn)的檢測效果仍然非常有限(見圖6),另外由于現(xiàn)有少樣本學習、弱監(jiān)督學習、無監(jiān)督學習、自監(jiān)督學習等性能還比較有限,導致適合實際場景的現(xiàn)實應(yīng)用需求下有限條件的偽裝目標檢測研究較少。

(5)多模態(tài)偽裝目標檢測研究較少。目前偽裝目標檢測僅限于多源信息,如基于RGB-D的DCNet[45]、基于頻域的FDNet[46]和基于VCOD 的SLT-Net[68]等,而基于圖像、文本、音頻、視頻等多種模態(tài)的多模態(tài)偽裝目標檢測研究還非常有限。

5.2 未來研究方向

針對上述偽裝目標檢測中存在的不足和挑戰(zhàn),下面分析列舉了基于深度學習的偽裝目標檢測的未來研究方向。

(1)復(fù)雜背景下的多尺度偽裝目標檢測方法研究。最大化模擬人類視覺識別偽裝目標的理念,設(shè)計具有針對性的模型去推理和判斷復(fù)雜背景下的偽裝目標;充分捕獲偽裝目標的全局、局部信息和局部顯著性信息,提升多尺度偽裝目標檢測性能。

(2)輕量化偽裝目標檢測方法研究。充分利用現(xiàn)有的輕量化模型思想,如深度可分離卷積、小卷積代替大卷積、壓縮編碼、權(quán)值量化、權(quán)值共享、遷移學習/知識蒸餾、計算加速等,設(shè)計更加精細的能滿足實時性應(yīng)用需求偽裝目標檢測模型,以在軍事作戰(zhàn)環(huán)境、搜索救援活動等對實時性要求非常高的場景中進行應(yīng)用。

(3)有限條件下的偽裝目標檢測方法研究。在算法研究方面,利用少量注釋數(shù)據(jù)進行少樣本訓練以避免昂貴的注釋成本;使用聚類、降維、自編碼器等方式對無標簽的偽裝數(shù)據(jù)進行無監(jiān)督學習,以實現(xiàn)對偽裝目標進行分類等任務(wù);使用樣本增強技術(shù)、對比任務(wù)等進行自監(jiān)督學習來學習偽裝數(shù)據(jù)本身的特征;引入自學習、生成式方法及協(xié)同學習等方式進行半監(jiān)督學習以利用未標注數(shù)據(jù)提升模型學習性能。在實際應(yīng)用角度方面,可以根據(jù)不同領(lǐng)域的數(shù)據(jù)特點及應(yīng)用需求,進行特定任務(wù)的數(shù)據(jù)收集并設(shè)計相應(yīng)的學習方式。

(4)多模態(tài)偽裝目標檢測方法研究。單一的圖像模態(tài)對偽裝目標檢測的性能還很有限,利用多源信息融合、多視圖學習、協(xié)同學習等方法將文本、圖像、音頻、視頻等多種模態(tài)相結(jié)合,利用多模態(tài)來提升偽裝目標的檢測性能。

6 結(jié)束語

本文從由粗到細、多任務(wù)學習、置信感知學習、多源信息融合以及Transformer五種策略角度對現(xiàn)有的基于深度學習的偽裝目標檢測方法進行了分類綜述,比較了各類方法的優(yōu)缺點,在四個公共偽裝目標數(shù)據(jù)集上對現(xiàn)有的基于深度學習的偽裝目標檢測模型進行了定量分析、視覺分析和效率分析,評估了不同模型的性能。此外,列舉了偽裝目標檢測的應(yīng)用領(lǐng)域,討論了現(xiàn)有偽裝目標檢測模型存在的不足和挑戰(zhàn),并探討了偽裝目標檢測的未來研究方向。

猜你喜歡
紋理特征性能
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
軟件(2020年3期)2020-04-20 01:45:18
如何表達“特征”
提供將近80 Gbps的帶寬性能 DisplayPort 2.0正式發(fā)布
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
使用紋理疊加添加藝術(shù)畫特效
抓住特征巧觀察
TEXTURE ON TEXTURE質(zhì)地上的紋理
Coco薇(2017年8期)2017-08-03 15:23:38
消除凹凸紋理有妙招!
Coco薇(2015年5期)2016-03-29 23:22:15
Al-Se雙元置換的基于LGPS的thio-LISICON的制備與性能表征
強韌化PBT/PC共混物的制備與性能
中國塑料(2015年4期)2015-10-14 01:09:28
渑池县| 柘城县| 襄汾县| 辽中县| 西青区| 清新县| 黎城县| 徐州市| 泸溪县| 大城县| 通山县| 朝阳区| 敦化市| 莱西市| 淅川县| 望城县| 宜黄县| 肥西县| 济南市| 吴桥县| 通渭县| 宜良县| 龙州县| 福清市| 托里县| 汉寿县| 赤城县| 绥德县| 高雄县| 建始县| 汽车| 灵山县| 和静县| 随州市| 宁南县| 探索| 多伦县| 岢岚县| 喀喇沁旗| 柳林县| 武城县|