宋婷 賀豐收 程宇峰
摘要:隨著對(duì)航空科技水平需求的不斷提升,人工智能技術(shù)為該領(lǐng)域突破發(fā)展提供了可能。其中,深度學(xué)習(xí)作為一種人工智能的技術(shù)方法,在諸多方面展現(xiàn)出巨大的優(yōu)勢(shì)而受到廣泛研究和關(guān)注。針對(duì)雷達(dá)目標(biāo)檢測(cè)而言,深度學(xué)習(xí)方法是以數(shù)據(jù)驅(qū)動(dòng)的方式,建立端對(duì)端網(wǎng)絡(luò),避免人工提取特征表達(dá)力不足,實(shí)現(xiàn)優(yōu)越檢測(cè)的性能,因此在雷達(dá)領(lǐng)域受到越來(lái)越多的關(guān)注和研究。本文首先介紹了雷達(dá)目標(biāo)檢測(cè)領(lǐng)域相關(guān)知識(shí),指出傳統(tǒng)檢測(cè)方法的局限性;然后對(duì)目前深度神經(jīng)網(wǎng)絡(luò)檢測(cè)經(jīng)典方法進(jìn)行了分析和歸納,重點(diǎn)介紹了深度神經(jīng)網(wǎng)絡(luò)在雷達(dá)目標(biāo)檢測(cè)中的研究現(xiàn)狀;最后對(duì)深度學(xué)習(xí)在雷達(dá)目標(biāo)檢測(cè)領(lǐng)域應(yīng)用中存在的技術(shù)挑戰(zhàn)進(jìn)行了分析,并就未來(lái)相關(guān)技術(shù)的發(fā)展趨勢(shì)進(jìn)行了展望。
關(guān)鍵詞:深度學(xué)習(xí);雷達(dá)目標(biāo)檢測(cè);深度神經(jīng)網(wǎng)絡(luò);時(shí)序信號(hào)檢測(cè);時(shí)頻域信號(hào)檢測(cè)
中圖分類(lèi)號(hào):TN953文獻(xiàn)標(biāo)識(shí)碼:ADOI:10.19452/j.issn1007-5453.2020.10.003
基金項(xiàng)目:航空科學(xué)基金(20172007002)
雷達(dá)具有全天候、全天時(shí)、作用距離遠(yuǎn)等特點(diǎn),可以對(duì)環(huán)境和目標(biāo)進(jìn)行監(jiān)測(cè)。雷達(dá)工作在探測(cè)模式下,可對(duì)照射區(qū)域的回波進(jìn)行分析處理,從雜波、干擾、噪聲等信號(hào)中檢測(cè)到目標(biāo)信息,并確定其距離、速度、角度等信息[1]。由于雷達(dá)檢測(cè)技術(shù)跟任務(wù)和應(yīng)用場(chǎng)景緊密相關(guān),以機(jī)載雷達(dá)為例,目前機(jī)載雷達(dá)主要采用脈沖多普勒體制,能夠適應(yīng)對(duì)空、對(duì)海和對(duì)地探測(cè)任務(wù),完成目標(biāo)檢測(cè)處理,提取目標(biāo)信息。當(dāng)機(jī)載雷達(dá)執(zhí)行對(duì)空目標(biāo)探測(cè)時(shí),主要通過(guò)相參積累提高目標(biāo)信雜噪比后,再進(jìn)行恒虛警(CFAR)檢測(cè);當(dāng)執(zhí)行對(duì)海搜索任務(wù)時(shí),可通過(guò)非相參積累實(shí)現(xiàn)目標(biāo)檢測(cè);當(dāng)執(zhí)行對(duì)地觀測(cè)任務(wù)時(shí),通過(guò)寬帶成像功能的雷達(dá)還可以獲取目標(biāo)高分辨距離像(HRRP)數(shù)據(jù)和合成孔徑雷達(dá)(SAR)成像,針對(duì)HRRP和SAR圖像實(shí)現(xiàn)目標(biāo)檢測(cè)功能。
近年來(lái),雷達(dá)目標(biāo)檢測(cè)技術(shù)日臻成熟?,F(xiàn)有的目標(biāo)檢測(cè)主要采用目標(biāo)先積累后檢測(cè)的方法和雜波抑制后檢測(cè)的方法。僅積累目標(biāo)能量后檢測(cè)方法適用于均勻雜波、噪聲場(chǎng)景,然而,針對(duì)復(fù)雜雜波場(chǎng)景下目標(biāo)檢測(cè)方法[2-3],往往需要先估計(jì)雜波分布特性,如空時(shí)二維自適應(yīng)處理(STAP),獲取待測(cè)距離單元雜波同分布特性的雜波樣本,通過(guò)空、時(shí)域加權(quán)在待測(cè)目標(biāo)通道形成雜波凹口實(shí)現(xiàn)雜波抑制。但由于目前雜波環(huán)境復(fù)雜性,傳統(tǒng)雜波協(xié)方差估計(jì)難以獲取足夠獨(dú)立同分布樣本,使得復(fù)雜雜波抑制效果欠佳,目標(biāo)檢測(cè)能力受限。
2012年,在ImageNet競(jìng)賽上,深度學(xué)習(xí)方法以絕對(duì)優(yōu)勢(shì)獲得冠軍,其中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)由于其強(qiáng)大的特征提取能力受到廣泛關(guān)注。1998年,Y. Lecun[4]等提出LeNet-5網(wǎng)絡(luò)作為CNN最經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)文本識(shí)別,而后發(fā)展到2015年Ross B.Grishick提出的Faster R-CNN[5]兩階段檢測(cè)網(wǎng)絡(luò),以較高的準(zhǔn)確率實(shí)現(xiàn)自動(dòng)目標(biāo)檢測(cè)。2018年,Joseph Redmon提出的YOLOV3[6]端到端檢測(cè)模型,以其出色的實(shí)時(shí)檢測(cè)速度成為目前開(kāi)源主流檢測(cè)算法之一。除此之外,還有基于針對(duì)數(shù)據(jù)重構(gòu)的自編碼器(AE)[7]系列、基于概率生成模型的深度置信網(wǎng)絡(luò)(DBN)[8]等,在序列信號(hào)處理領(lǐng)域有著廣泛的應(yīng)用。隨著深度學(xué)習(xí)方法在圖像識(shí)別、語(yǔ)音處理、優(yōu)化決策領(lǐng)域的卓越表現(xiàn),目前許多研究學(xué)者利用深度學(xué)習(xí)技術(shù)在雷達(dá)中展開(kāi)研究,主要的研究領(lǐng)域包括:采用卷積神經(jīng)網(wǎng)絡(luò)等進(jìn)行自動(dòng)目標(biāo)識(shí)別(ATR)[9-12],采用深度神經(jīng)網(wǎng)絡(luò)(deep neural network , DNN)進(jìn)行微動(dòng)多普勒分類(lèi)[13],采用深度學(xué)習(xí)方法進(jìn)行雷達(dá)對(duì)抗環(huán)境下的作戰(zhàn)意圖分析[14-15]等。基于深度學(xué)習(xí)的雷達(dá)目標(biāo)檢測(cè)方法是以數(shù)據(jù)驅(qū)動(dòng)的形式,利用深層神經(jīng)網(wǎng)絡(luò)對(duì)特征的高維空間表達(dá)提取有效信息,建立從輸入數(shù)據(jù)到輸出檢測(cè)結(jié)果的端對(duì)端網(wǎng)絡(luò),避免了人工提取特征和建模方法表達(dá)力不足的問(wèn)題,在有效訓(xùn)練數(shù)據(jù)充足的前提下,網(wǎng)絡(luò)在定位、分類(lèi)等問(wèn)題上的準(zhǔn)確性能相比傳統(tǒng)網(wǎng)絡(luò)有著顯著提升。本文主要利用深度學(xué)習(xí)技術(shù)解決雷達(dá)目標(biāo)檢測(cè)的問(wèn)題。
1目標(biāo)檢測(cè)現(xiàn)狀
雷達(dá)目標(biāo)檢測(cè)任務(wù)可以分解為兩個(gè)部分:雷達(dá)目標(biāo)分類(lèi)和目標(biāo)定位。雷達(dá)目標(biāo)分類(lèi)需要判斷輸入數(shù)據(jù)是目標(biāo)還是雜波、干擾,目標(biāo)定位需要解算輸入數(shù)據(jù)的位置。以對(duì)空探測(cè)為例,雷達(dá)目標(biāo)檢測(cè)會(huì)在雷達(dá)多普勒-距離維回波中標(biāo)注出目標(biāo)所在距離門(mén)和頻率門(mén),同時(shí)將目標(biāo)功率、信噪比、雷達(dá)截面積(RCS)、角度、速度等信息存儲(chǔ)在目標(biāo)列表中,便于后續(xù)進(jìn)行目標(biāo)跟蹤、識(shí)別。
1.1傳統(tǒng)雷達(dá)目標(biāo)檢測(cè)方法
以相控陣?yán)走_(dá)目標(biāo)檢測(cè)[1]為例,針對(duì)相控陣?yán)走_(dá)的回波數(shù)據(jù),先對(duì)其進(jìn)行相參/非相參積累和相關(guān)濾波處理,盡可能濾除噪聲,抑制雜波,然后根據(jù)某些準(zhǔn)則(如奈曼-皮爾遜準(zhǔn)則),對(duì)每幀回波設(shè)置固定或自適應(yīng)檢測(cè)門(mén)限,將超過(guò)檢測(cè)門(mén)限的數(shù)據(jù)輸出得到檢測(cè)結(jié)果,如圖1所示。
近年來(lái),隱身、高機(jī)動(dòng)目標(biāo)的出現(xiàn),給傳統(tǒng)雷達(dá)檢測(cè)帶來(lái)了巨大的挑戰(zhàn),同時(shí)傳統(tǒng)檢測(cè)方法在處理經(jīng)典應(yīng)用場(chǎng)景(如對(duì)海探測(cè)等)時(shí),相關(guān)的性能輸出指標(biāo)已經(jīng)逼近技術(shù)上限,存在明顯的瓶頸,亟待突破。主要表現(xiàn)在:(1)現(xiàn)代雷達(dá)信號(hào)理論基本還是遵循平穩(wěn)信號(hào)的處理模型,在非平穩(wěn)信號(hào)(雜波)場(chǎng)景下的應(yīng)用存在技術(shù)瓶頸;(2)只利用單個(gè)頻率和距離單元的孤立處理方法,如經(jīng)典的恒虛警檢測(cè)技術(shù),并未涉及目標(biāo)高機(jī)動(dòng)時(shí)速度變化和距離門(mén)走動(dòng)等。
針對(duì)雷達(dá)高速弱小復(fù)雜環(huán)境下的目標(biāo)檢測(cè),非平穩(wěn)現(xiàn)象對(duì)目標(biāo)積累帶來(lái)的影響會(huì)嚴(yán)重影響傳統(tǒng)方法的檢測(cè)性能。
當(dāng)前機(jī)載雷達(dá)對(duì)海面目標(biāo)檢測(cè)方法主要針對(duì)海雜波分布模型假設(shè),用統(tǒng)計(jì)模型描述海雜波分布進(jìn)行檢測(cè)。基于分布模型的方法核心在于以實(shí)際數(shù)據(jù)和假設(shè)模型高擬合度為前提[16]。但受實(shí)際海情影響,模型方法對(duì)數(shù)據(jù)描述精確度不夠,限制了對(duì)海目標(biāo)檢測(cè)性能的提升。
1.2基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法
基于深度學(xué)習(xí)(deep learning)的目標(biāo)檢測(cè)流程如圖2所示。
深度學(xué)習(xí)是基于人類(lèi)大腦的認(rèn)知結(jié)構(gòu)發(fā)展出來(lái)的一種機(jī)器學(xué)習(xí)方法,相比于傳統(tǒng)的機(jī)器學(xué)習(xí)算法(淺層學(xué)習(xí)),其算法通過(guò)多層的非線(xiàn)性變換,能夠由低層到高層逐層提取越來(lái)越抽象的特征,從而能夠通過(guò)大量的訓(xùn)練數(shù)據(jù)學(xué)到高層的可分特征。深度學(xué)習(xí)檢測(cè)網(wǎng)絡(luò)則是利用多隱層神經(jīng)元,對(duì)輸入數(shù)據(jù)進(jìn)行特征學(xué)習(xí),用以區(qū)分目標(biāo)和背景信息的深層網(wǎng)絡(luò)結(jié)構(gòu),可實(shí)現(xiàn)復(fù)雜的檢測(cè)任務(wù)。深度堆疊自動(dòng)編碼器的深層網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其中包含多個(gè)隱藏層結(jié)構(gòu)h1,h2,h3,可以逐層提取輸入信息x的抽象隱式特征。
在復(fù)雜非平穩(wěn)環(huán)境中,以復(fù)雜海況下的目標(biāo)檢測(cè)為例,傳統(tǒng)基于海雜波分布模型的假設(shè)不成立,傳統(tǒng)目標(biāo)檢測(cè)方法性能受限,采用深度學(xué)習(xí)的目標(biāo)檢測(cè)方法,不基于固定模式下的海雜波分布,而是從海面目標(biāo)和背景數(shù)據(jù)差異性出發(fā),借助充足的不同海況下的標(biāo)記數(shù)據(jù)作為網(wǎng)絡(luò)輸入,構(gòu)建最大化區(qū)分背景和目標(biāo)的代價(jià)函數(shù),利用深層神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí),每一層得到非顯性的數(shù)據(jù)特征表達(dá);同時(shí)利用監(jiān)督訓(xùn)練的方法,將誤差反向傳遞實(shí)現(xiàn)網(wǎng)絡(luò)權(quán)值的調(diào)優(yōu),使得網(wǎng)絡(luò)輸出與期望值更加接近。
通過(guò)對(duì)網(wǎng)絡(luò)框架、層級(jí)結(jié)構(gòu)、代價(jià)函數(shù)、網(wǎng)絡(luò)訓(xùn)練、調(diào)優(yōu)方法等的確立,在大量數(shù)據(jù)樣本的支撐下,深度神經(jīng)網(wǎng)絡(luò)可實(shí)現(xiàn)對(duì)復(fù)雜海情海況數(shù)據(jù)下目標(biāo)信息和背景雜波的高層特征抽象表達(dá),輸出為目標(biāo)有無(wú),如果檢測(cè)出目標(biāo)還將進(jìn)一步給出目標(biāo)位置信息。
基于自動(dòng)特征提取的深度學(xué)習(xí)方法為復(fù)雜環(huán)境中的目標(biāo)檢測(cè)提供了全新的思路。深度學(xué)習(xí)基于大數(shù)據(jù),利用深層感知網(wǎng)絡(luò)構(gòu)建模型,充分提取輸入信息的深層抽象特征,避免了過(guò)度依賴(lài)人工經(jīng)驗(yàn)手動(dòng)提取特征,可以對(duì)數(shù)據(jù)中潛在特征進(jìn)行挖掘。因此,本節(jié)針對(duì)現(xiàn)有典型的深度學(xué)習(xí)目標(biāo)檢測(cè)模型進(jìn)行歸納介紹。
目前基于目標(biāo)檢測(cè)的深度網(wǎng)絡(luò)模型可以分為基于CNN及其變體的目標(biāo)檢測(cè)網(wǎng)絡(luò),如根據(jù)回歸方法的YOLO[17]一階段系列檢測(cè)網(wǎng)絡(luò),根據(jù)分類(lèi)方法的R-CNN[18]二階段系列檢測(cè)網(wǎng)絡(luò);基于數(shù)據(jù)重構(gòu)的自編器(AE)網(wǎng)絡(luò);基于概率生成模型的深度置信網(wǎng)絡(luò)(DBN)等。由于目標(biāo)檢測(cè)問(wèn)題可以轉(zhuǎn)化為目標(biāo)和背景的二分類(lèi)問(wèn)題,因此采用深度學(xué)習(xí)分類(lèi)模型也可在一定問(wèn)題場(chǎng)景下實(shí)現(xiàn)目標(biāo)檢測(cè)的功能。
1.2.1 CNN檢測(cè)模型
CNN網(wǎng)絡(luò)作為主流的檢測(cè)算法,可以達(dá)到較高的檢測(cè)準(zhǔn)確率。傳統(tǒng)CNN網(wǎng)絡(luò)是LeCun提出的LeNet-5模型,如圖4所示,網(wǎng)絡(luò)一共有7層,主要包含輸入層、卷積層、池化層、全連接層以及輸出層。卷積層主要用來(lái)提取特征,通過(guò)多個(gè)卷積核實(shí)現(xiàn)不同特征的映射圖,其中參數(shù)共享機(jī)制減少了網(wǎng)絡(luò)的模型復(fù)雜度,使網(wǎng)絡(luò)更容易訓(xùn)練;池化層采用最大池化或平均池化方法,對(duì)輸出特征圖進(jìn)行降維操作,使得網(wǎng)絡(luò)具有更好的魯棒性;通過(guò)激活函數(shù)使得網(wǎng)絡(luò)具有非線(xiàn)性逼近能力,更容易學(xué)習(xí)到高維抽象特征,因而具有良好的分類(lèi)能力。
以卷積為核心發(fā)展起來(lái)的深度檢測(cè)網(wǎng)絡(luò),其中具有代表性算法為基于候選窗口的卷積神經(jīng)網(wǎng)絡(luò)方法RCNN[18],以RCNN為基礎(chǔ)又發(fā)展出了faster-RCNN,如圖5所示。Ren等提出Faster-RCNN[5]實(shí)現(xiàn)了區(qū)域候選框和CNN網(wǎng)絡(luò)分類(lèi)的端到端目標(biāo)檢測(cè)模型,在VOC07上的mAP=73.2%,在COCO上mAP=42.7%。
RCNN系列方法在目標(biāo)檢測(cè)中可以得到較高的檢測(cè)準(zhǔn)確度,但是計(jì)算速度慢,缺乏實(shí)時(shí)性?;贠ne-Stage的YOLO目標(biāo)檢測(cè)框架、SSD檢測(cè)框架在輸入圖像上直接得到該位置的目標(biāo)邊框和目標(biāo)類(lèi)別。R.Joseph于2015年提出YOLO[17]網(wǎng)絡(luò)模型,通過(guò)將圖像分割成多個(gè)網(wǎng)格,每個(gè)網(wǎng)格對(duì)應(yīng)多個(gè)邊界框,通過(guò)回歸預(yù)測(cè)每個(gè)網(wǎng)格的邊界框位置和類(lèi)別位置,以及目標(biāo)置信度分?jǐn)?shù),采用非極大值抑制(NMS)設(shè)置閾值得到最終的檢測(cè)結(jié)果。W. Liu[19]等提出了SSD網(wǎng)絡(luò),使用多尺寸特征圖提取特征和多個(gè)anchor boxes進(jìn)行邊界框坐標(biāo)偏差和類(lèi)別置信度預(yù)測(cè),比YOLOV系列[20-21]更適合檢測(cè)多種尺寸的目標(biāo),SSD方法檢測(cè)性能與FasterRCNN相當(dāng)?shù)俣缺萗OLO更快,在VOC07數(shù)據(jù)集上的mAP=76.8%。
1.2.2 AE檢測(cè)模型
自編碼器(AE)是一種無(wú)監(jiān)督學(xué)習(xí)方法,通過(guò)用于提取特征的編碼器結(jié)構(gòu)和用于重構(gòu)的解碼器組成。輸入數(shù)據(jù)經(jīng)過(guò)隱含層特征學(xué)習(xí),然后經(jīng)過(guò)解碼器得到網(wǎng)絡(luò)輸出,自編碼器通過(guò)學(xué)習(xí)一個(gè)恒等映射,讓輸出逼近輸入實(shí)現(xiàn)對(duì)數(shù)據(jù)內(nèi)部隱藏特征的學(xué)習(xí)。2006年,Hilton對(duì)自動(dòng)編碼器進(jìn)行改進(jìn),提出深度自編碼器[22],先用無(wú)監(jiān)督逐層貪心訓(xùn)練算法完成對(duì)隱含層的預(yù)訓(xùn)練,然后采用BP算法對(duì)整個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行參數(shù)優(yōu)化調(diào)整,有效改善了BP算法容易陷入局部最優(yōu)的問(wèn)題。稀疏自編碼器[23]核心是采用最少的隱藏單元表示輸入層的特征,采用KL距離設(shè)置稀疏代價(jià)函數(shù),使得隱藏單元平均激活值接近于0,通過(guò)壓縮原始信號(hào)的維度得到輸入特征的稀疏表示。降噪自編碼器[24]一定程度解決了自編碼器原始數(shù)據(jù)重構(gòu)的敏感性,又對(duì)訓(xùn)練數(shù)據(jù)不夠敏感,可以略微破壞輸入數(shù)據(jù),但仍維持未損壞的數(shù)據(jù)維作為目標(biāo)輸出。通過(guò)在訓(xùn)練過(guò)程中增加噪聲提升模型的抗噪性能。
通過(guò)對(duì)深度神經(jīng)網(wǎng)絡(luò)CNN和其變體網(wǎng)絡(luò)、AE系列等檢測(cè)模型的分析和梳理,可對(duì)雷達(dá)時(shí)間維-頻率維-空間維的數(shù)據(jù)進(jìn)行分析,以便于針對(duì)雷達(dá)數(shù)據(jù)的特點(diǎn),對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化或改進(jìn),使其適合于對(duì)雷達(dá)序列數(shù)據(jù)、雷達(dá)時(shí)域-頻域數(shù)據(jù)、雷達(dá)圖像數(shù)據(jù)等的處理。
2基于深度學(xué)習(xí)的雷達(dá)檢測(cè)應(yīng)用
上一節(jié)對(duì)目前典型的深度學(xué)習(xí)目標(biāo)檢測(cè)網(wǎng)絡(luò)的處理過(guò)程進(jìn)行了介紹,在此基礎(chǔ)上分析了深度學(xué)習(xí)相關(guān)算法在雷達(dá)目標(biāo)檢測(cè)上的應(yīng)用,通過(guò)與傳統(tǒng)方法相比,深度學(xué)習(xí)目標(biāo)檢測(cè)性能有著顯著的優(yōu)勢(shì)。
不同于光學(xué)圖像處理過(guò)程,基于深度學(xué)習(xí)的雷達(dá)目標(biāo)檢測(cè)方法,需要對(duì)雷達(dá)信號(hào)進(jìn)行解析,利用雷達(dá)信號(hào)在空間域、時(shí)間域、頻率域的特性,針對(duì)不同雷達(dá)應(yīng)用場(chǎng)景構(gòu)建合適的深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)雷達(dá)目標(biāo)檢測(cè)。雷達(dá)目標(biāo)檢測(cè)從檢測(cè)環(huán)境上可以分為均勻環(huán)境,如噪聲中的目標(biāo)檢測(cè)和復(fù)雜環(huán)境如非均勻雜波下的目標(biāo)檢測(cè);從研究對(duì)象上可以為針對(duì)二維圖像(如SAR圖像、時(shí)域-頻域(R-D)圖等)以及一維序列信號(hào)(如單一頻率維信號(hào)、目標(biāo)高分辨距離像HRRP信號(hào))下的檢測(cè)。本節(jié)從研究對(duì)象輸入角度出發(fā),結(jié)合雷達(dá)處理流程,對(duì)深度學(xué)習(xí)針對(duì)雷達(dá)目標(biāo)檢測(cè)的可行性、應(yīng)用情況和與傳統(tǒng)方法結(jié)果對(duì)比等方面進(jìn)行介紹。
2.1雷達(dá)時(shí)域-頻域(R-D)上的檢測(cè)
雷達(dá)回波在快時(shí)間域經(jīng)過(guò)脈壓后,可獲得目標(biāo)距離維信息,再通過(guò)對(duì)各距離單元慢時(shí)間域FFT處理,可以得到回波的多普勒域信息,即目標(biāo)在距離-多普勒域的能量分布情況,可稱(chēng)為R-D譜??舍槍?duì)雷達(dá)R-D譜圖開(kāi)展目標(biāo)檢測(cè)研究。
雷達(dá)目標(biāo)檢測(cè)問(wèn)題可以當(dāng)成是目標(biāo)和雜波(噪聲)背景的二分類(lèi)問(wèn)題。Wang等[25]在此基礎(chǔ)上進(jìn)行深度神經(jīng)網(wǎng)絡(luò)的雷達(dá)檢測(cè)。作者利用R-D圖中包含目標(biāo)回波和不含目標(biāo)回波的差異性,網(wǎng)絡(luò)輸入是雷達(dá)R-D譜域的切片,分為包含目標(biāo)和噪聲的切片和不包含目標(biāo)的噪聲切片,切片以圖像形式輸入,大小根據(jù)滑窗尺寸決定,根據(jù)一致性檢測(cè)理論,輸入數(shù)據(jù)層級(jí)數(shù)跟相關(guān)脈沖串的數(shù)量相同。設(shè)置CNN網(wǎng)絡(luò)結(jié)構(gòu)包含兩個(gè)卷積層、兩個(gè)Relu層、兩個(gè)最大池化層和兩個(gè)全連接層。最后一層的全連接層采用softmax得到目標(biāo)二分類(lèi)結(jié)果,代表輸入目標(biāo)切片中包含目標(biāo)與否。利用CNN網(wǎng)絡(luò)實(shí)現(xiàn)有目標(biāo)回波和無(wú)目標(biāo)回波的二分類(lèi),可以替代完成CFAR的功能。最后通過(guò)仿真數(shù)據(jù)對(duì)試驗(yàn)提出模型進(jìn)行驗(yàn)證,發(fā)射信號(hào)為線(xiàn)性調(diào)頻信號(hào),幅度為0均值高斯隨機(jī)噪聲環(huán)境,檢測(cè)結(jié)果優(yōu)于傳統(tǒng)CFAR檢測(cè)結(jié)果。
參考文獻(xiàn)[26]通過(guò)構(gòu)造卷積層、池化層和全連接層,采用CNN實(shí)現(xiàn)人的檢測(cè)和人的動(dòng)作識(shí)別。檢測(cè)網(wǎng)絡(luò)可實(shí)現(xiàn)對(duì)人、動(dòng)物、車(chē)等目標(biāo)進(jìn)行分類(lèi),從而檢測(cè)人是否存在,檢測(cè)概率97.6%。
Su[27]等提出采用深度學(xué)習(xí)進(jìn)行海面目標(biāo)分類(lèi),也是將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)化成分類(lèi)問(wèn)題。由于海面目標(biāo)運(yùn)動(dòng)體現(xiàn)在雷達(dá)回波的多普勒譜中,可由平動(dòng)分量和多普勒微動(dòng)分量構(gòu)成,而微動(dòng)分量的譜特性可以對(duì)目標(biāo)進(jìn)行分類(lèi)。因此,通過(guò)構(gòu)建非均勻平動(dòng)、三坐標(biāo)下的轉(zhuǎn)動(dòng)等目標(biāo)運(yùn)動(dòng)模型,對(duì)雷達(dá)回波時(shí)-頻譜信息進(jìn)行分析,將雷達(dá)回波譜作為輸入圖像,利用LeNet等深度神經(jīng)網(wǎng)絡(luò)有效提取目標(biāo)微動(dòng)特性,在威布爾雜波環(huán)境下實(shí)現(xiàn)目標(biāo)分類(lèi)。檢測(cè)結(jié)果受目標(biāo)信雜噪比的影響較大,當(dāng)雜波強(qiáng)度較大時(shí),需要采用一些雜波抑制方法才能提升檢測(cè)性能,一定程度上解決了雜波環(huán)境的海面目標(biāo)檢測(cè)問(wèn)題。
Rodrigo等[28]提出一種采用YOLO網(wǎng)絡(luò)進(jìn)行檢測(cè)識(shí)別一體化的方法。先對(duì)激光雷達(dá)回波數(shù)據(jù)轉(zhuǎn)換為距離-多普勒譜信息,將功率譜取dB后轉(zhuǎn)化為灰度圖作為輸入;再利用OSCA-CFAR檢測(cè)器在速度維對(duì)目標(biāo)進(jìn)行標(biāo)注,同時(shí),目標(biāo)先驗(yàn)框的位置標(biāo)注是通過(guò)攝像機(jī)和激光雷達(dá)融合自動(dòng)標(biāo)注后投影至雷達(dá)譜上得到的;通過(guò)對(duì)目標(biāo)在不同物理位置的數(shù)據(jù),輸入YOLOV3深度檢測(cè)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,最終在城市交通復(fù)雜環(huán)境下完成對(duì)行人、汽車(chē)、自行車(chē)的實(shí)現(xiàn)檢測(cè)和識(shí)別,當(dāng)IoU=0.5時(shí)mAP性能為70%左右。
上述文獻(xiàn)在噪聲、雜波等環(huán)境中實(shí)現(xiàn)了R-D域目標(biāo)圖像的檢測(cè),將檢測(cè)問(wèn)題轉(zhuǎn)化為分類(lèi)問(wèn)題,為雷達(dá)在信號(hào)級(jí)的檢測(cè)進(jìn)行了一定程度的探索。針對(duì)均勻環(huán)境下的目標(biāo)檢測(cè),受信噪比影響較低,可通過(guò)深度學(xué)習(xí)對(duì)樣本之間相關(guān)性的學(xué)習(xí)額外獲得略?xún)?yōu)于傳統(tǒng)檢測(cè)方法的性能。然而在實(shí)際雷達(dá)工作環(huán)境中,情況可能較為復(fù)雜。如非均勻雜波環(huán)境下,離散雜波容易過(guò)門(mén)限而造成虛警,甚至當(dāng)散射區(qū)域雜波強(qiáng)度較大時(shí),目標(biāo)很容易被雜波淹沒(méi),這種情況下傳統(tǒng)方法難以有效檢測(cè)??梢岳蒙疃葘W(xué)習(xí)方法對(duì)數(shù)據(jù)中隱含特征的提取,從目標(biāo)和雜波回波信號(hào)可分性方面入手,探索低信雜噪比環(huán)境下目標(biāo)檢測(cè)問(wèn)題;同時(shí),可對(duì)雷達(dá)R-D譜域數(shù)據(jù)劃分為目標(biāo)、雜波、干擾、噪聲等切片,并利用領(lǐng)域知識(shí)進(jìn)行數(shù)據(jù)標(biāo)記,采用深度分類(lèi)網(wǎng)絡(luò)可實(shí)現(xiàn)對(duì)雷達(dá)復(fù)雜環(huán)境中的精細(xì)化檢測(cè)。因此,如何在復(fù)雜強(qiáng)雜波環(huán)境中進(jìn)行目標(biāo)檢測(cè)仍需要進(jìn)一步研究難題。
2.2 SAR檢測(cè)技術(shù)
涂松[29]利用深度SAE網(wǎng)絡(luò)實(shí)現(xiàn)大尺寸SAR圖像目標(biāo)的快速提取。先針對(duì)大尺寸SAR圖像進(jìn)行顯著性區(qū)域檢測(cè),得到目標(biāo)和背景雜波,然后構(gòu)建三層深度自編碼器實(shí)現(xiàn)對(duì)背景下車(chē)輛的檢測(cè)。Wang[30]等構(gòu)建CNN網(wǎng)絡(luò),對(duì)海面多個(gè)場(chǎng)景進(jìn)行學(xué)習(xí)和特征提取,測(cè)試階段從海雜波場(chǎng)景下檢測(cè)出艦船目標(biāo)。由于缺少不同姿態(tài)下的艦船數(shù)據(jù),因此CNN網(wǎng)絡(luò)針對(duì)不同姿態(tài)的海面目標(biāo)檢測(cè)能力還需要進(jìn)一步提升。
由于缺少有效的帶標(biāo)簽數(shù)據(jù),針對(duì)城市變化檢測(cè)問(wèn)題很難通過(guò)目前的監(jiān)督學(xué)習(xí)方法實(shí)現(xiàn)。De[31]等通過(guò)SAE網(wǎng)絡(luò)小樣本數(shù)據(jù)情況下,相比傳統(tǒng)方法,在降低虛警率的前提下,檢測(cè)概率達(dá)到92%左右。Jiao[32]等針對(duì)多場(chǎng)景下SAR艦船數(shù)據(jù),采用特征映射和高分辨率特征融合的方法,構(gòu)建基于Faster RCNN的多尺度密集網(wǎng)絡(luò)實(shí)現(xiàn)艦船檢測(cè)。Zhao[33]等基于Faster RCNN提出目標(biāo)檢測(cè)網(wǎng)絡(luò),在多尺度特征圖基礎(chǔ)上提取目標(biāo)候選區(qū)域,可針對(duì)不同尺寸的目標(biāo)實(shí)現(xiàn)有效檢測(cè)。杜蘭[34]等利用遷移學(xué)習(xí)的思想,結(jié)合數(shù)據(jù)擴(kuò)充技術(shù),提出一種基于Faster RCNN的目標(biāo)檢測(cè)方法。利用完備數(shù)據(jù)集訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù),遷移到Faster RCNN網(wǎng)絡(luò)中,在miniSAR公開(kāi)數(shù)據(jù)集上可獲得比傳統(tǒng)CFAR更好的檢測(cè)性能。Yang[35]等針對(duì)艦船目標(biāo)檢測(cè)算法檢測(cè)精度易受斑點(diǎn)噪聲影響,且只能提取底層特征及其泛化性較差的問(wèn)題,提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像艦船目標(biāo)檢測(cè)算法,相比于原始的SSD檢測(cè)算法,所提出的方法不僅提高了目標(biāo)檢測(cè)精度,同時(shí)也保證了算法的檢測(cè)效率。Liu[36]等基于SSD模型的目標(biāo)檢測(cè)方法,在復(fù)雜場(chǎng)景中獲得比Faster RCNN更好的檢測(cè)性能。圖6為強(qiáng)雜波背景下的目標(biāo)檢測(cè)。
Wang[37]通過(guò)遷移學(xué)習(xí)解決SAR訓(xùn)練數(shù)據(jù)有限的問(wèn)題,通過(guò)構(gòu)建類(lèi)似于SSD網(wǎng)絡(luò)的深度學(xué)習(xí)框架,采用多尺度特征圖和卷積網(wǎng)絡(luò)進(jìn)行船舶目標(biāo)檢測(cè)。Cui[38]等針對(duì)大場(chǎng)景下SAR檢測(cè)問(wèn)題,結(jié)合YOLO深度學(xué)習(xí)檢測(cè)思路,先在大場(chǎng)景上進(jìn)行滑動(dòng)分割得到多個(gè)區(qū)域,再進(jìn)行區(qū)域間的非極大值抑制方法優(yōu)化目標(biāo)候選區(qū)域,最終輸出最佳目標(biāo)的定位,有效實(shí)現(xiàn)大場(chǎng)景下的目標(biāo)快速檢測(cè)問(wèn)題。Khan[39]、Chang[40]等針對(duì)SAR圖像艦船目標(biāo)檢測(cè),利用YOLOV2深度學(xué)習(xí)網(wǎng)絡(luò),達(dá)到較好的檢測(cè)效果。Hu[41]等針對(duì)復(fù)雜目標(biāo)背景下艦船目標(biāo)檢測(cè)難題,重新設(shè)計(jì)殘差網(wǎng)絡(luò)單元,提出了改進(jìn)特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)的方法,并引入平衡因子優(yōu)化損失函數(shù)中的小目標(biāo)權(quán)重。試驗(yàn)結(jié)果相比原始YOLOV3方法在公開(kāi)數(shù)據(jù)集上提升了F1值,并可實(shí)現(xiàn)實(shí)時(shí)SAR目標(biāo)檢測(cè)問(wèn)題。
2.3雷達(dá)一維序列上檢測(cè)
Liu等[42]采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)雷達(dá)一維序列信號(hào)進(jìn)行處理,通過(guò)對(duì)雷達(dá)背景的分類(lèi)為雷達(dá)自動(dòng)檢測(cè)提供基礎(chǔ)。與目前針對(duì)雷達(dá)SAR圖像,雷達(dá)R-D域圖像開(kāi)展的檢測(cè)研究相比,針對(duì)一維雷達(dá)信號(hào)處理來(lái)提升目標(biāo)自動(dòng)檢測(cè)性能的研究相對(duì)較少。作者針對(duì)雷達(dá)的雜波和噪聲背景進(jìn)行分析,說(shuō)明了LeNet網(wǎng)絡(luò)在一維序列信號(hào)中對(duì)雜波和噪聲分辨的可行性,通過(guò)分別構(gòu)建雷達(dá)雜波、噪聲在時(shí)域回波幅度,頻域的譜幅度對(duì)應(yīng)的一維信號(hào)數(shù)據(jù)集,采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)雜波、噪聲數(shù)據(jù)進(jìn)行分類(lèi),討論了數(shù)據(jù)預(yù)處理方式、輸入時(shí)序信號(hào)的長(zhǎng)度、網(wǎng)絡(luò)參數(shù)設(shè)置對(duì)場(chǎng)景分類(lèi)的影響。通過(guò)對(duì)雷達(dá)雜波、噪聲的一維序列數(shù)據(jù)進(jìn)行分類(lèi),后續(xù)可對(duì)目標(biāo)場(chǎng)景雜波進(jìn)行精細(xì)化研究,設(shè)置不同的雜波抑制方法以實(shí)現(xiàn)目標(biāo)高效檢測(cè)。
各類(lèi)針對(duì)雷達(dá)回波域的深度學(xué)習(xí)目標(biāo)檢測(cè)方法,主要通過(guò)在噪聲、雜波、復(fù)雜場(chǎng)景中對(duì)雷達(dá)海面、地面、空中目標(biāo)進(jìn)行檢測(cè),通過(guò)對(duì)雷達(dá)數(shù)據(jù)進(jìn)行預(yù)處理,使深度神經(jīng)網(wǎng)絡(luò)能夠?qū)斎霐?shù)據(jù)進(jìn)行特征學(xué)習(xí),并通過(guò)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)獲知雷達(dá)目標(biāo)、雜波、噪聲之間的差異,說(shuō)明了深度學(xué)習(xí)在雷達(dá)檢測(cè)領(lǐng)域的可行性和有效性。
3面臨挑戰(zhàn)和發(fā)展展望
(1)雷達(dá)數(shù)據(jù)自動(dòng)標(biāo)注
雷達(dá)數(shù)據(jù)由于與光學(xué)數(shù)據(jù)存在較大差異,光學(xué)數(shù)據(jù)已經(jīng)有較為成熟的自動(dòng)化標(biāo)注軟件,并且有公開(kāi)的數(shù)據(jù)集可以對(duì)網(wǎng)絡(luò)進(jìn)行初始化訓(xùn)練。然而針對(duì)雷達(dá)領(lǐng)域而言,目標(biāo)數(shù)據(jù)的標(biāo)注還大量依賴(lài)專(zhuān)業(yè)信號(hào)信息處理領(lǐng)域從業(yè)者,并且雷達(dá)目標(biāo)數(shù)據(jù)與發(fā)射的極化方式、照射場(chǎng)景環(huán)境、目標(biāo)姿態(tài)信息等相關(guān)性較大,因此,如何針對(duì)數(shù)據(jù)進(jìn)行自動(dòng)化標(biāo)注,是提升深度學(xué)習(xí)應(yīng)用的基礎(chǔ)。
針對(duì)該問(wèn)題,利用深度學(xué)習(xí)的初步檢測(cè)結(jié)果,是否可實(shí)現(xiàn)對(duì)數(shù)據(jù)的粗標(biāo)注,再利用人工對(duì)標(biāo)注結(jié)果進(jìn)行錯(cuò)誤糾偏和篩查,借助深度學(xué)習(xí)工具實(shí)現(xiàn)數(shù)據(jù)標(biāo)注到檢測(cè)的互優(yōu)化,值得進(jìn)一步研究。
(2)小樣本條件下的穩(wěn)健檢測(cè)
軍事領(lǐng)域非合作目標(biāo)獲取存在一定難度,本質(zhì)上和合作目標(biāo)散射特性差異不大,但是相關(guān)數(shù)據(jù)樣本缺乏。所以在雷達(dá)軍事領(lǐng)域面臨自動(dòng)標(biāo)注和小樣本數(shù)據(jù)的難題。
針對(duì)該難題,一方面通過(guò)對(duì)目標(biāo)和環(huán)境特性的研究,可以利用仿真數(shù)據(jù)彌補(bǔ)訓(xùn)練樣本的不足,一定程度上可以緩解小樣本問(wèn)題;另一方面,遷移學(xué)習(xí)方法,通過(guò)領(lǐng)域知識(shí),找出源數(shù)據(jù)集合目標(biāo)數(shù)據(jù)集之間在特征空間的相關(guān)性,針對(duì)源域任務(wù)的知識(shí)來(lái)提升目標(biāo)域函數(shù)的求解性能。
(3)復(fù)雜作戰(zhàn)環(huán)境下目標(biāo)檢測(cè)
由于作戰(zhàn)樣式、作戰(zhàn)環(huán)境的改變,雷達(dá)目標(biāo)檢測(cè)在復(fù)雜作戰(zhàn)環(huán)境下檢測(cè)難度大大提升。如目標(biāo)大機(jī)動(dòng)時(shí)探測(cè)盲區(qū)的穩(wěn)定檢測(cè)跟蹤、主瓣干擾存在下的目標(biāo)檢測(cè)等,都是亟待解決的現(xiàn)實(shí)雷達(dá)檢測(cè)處理難題。
針對(duì)該難題,利用深度學(xué)習(xí)對(duì)目標(biāo)運(yùn)動(dòng)軌跡特征進(jìn)行分析,可嘗試針對(duì)有限目標(biāo)機(jī)動(dòng)模型下,采用網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)推演和分析,開(kāi)展復(fù)雜環(huán)境下基于目標(biāo)運(yùn)動(dòng)特性的檢測(cè)跟蹤一體化研究。
(4)面向深度學(xué)習(xí)的雷達(dá)處理軟硬件架構(gòu)實(shí)現(xiàn)
當(dāng)前基于深度學(xué)習(xí)等人工智能處理技術(shù)在雷達(dá)檢測(cè)、識(shí)別等方面的應(yīng)用還停留在仿真和試飛數(shù)據(jù)分析與離線(xiàn)處理驗(yàn)證階段,公開(kāi)報(bào)道中,缺乏基于工程化雷達(dá)軟硬件應(yīng)處理出臺(tái)開(kāi)展的實(shí)時(shí)處理或者離線(xiàn)數(shù)據(jù)回放處理驗(yàn)證過(guò)程,距離深度學(xué)習(xí)等人工處理技術(shù)在雷達(dá)中的工程化應(yīng)用還有很長(zhǎng)一段的距離。
因此,在進(jìn)行充分的理論建模和試驗(yàn)數(shù)據(jù)離線(xiàn)分析的基礎(chǔ)上,以基于GPU和開(kāi)放式軟件架構(gòu),推進(jìn)深度學(xué)習(xí)等人工處理技術(shù)的工程化演示驗(yàn)證,同時(shí),積極規(guī)劃雷達(dá)專(zhuān)用 AI處理芯片的架構(gòu)研究和設(shè)計(jì),不斷推進(jìn)技術(shù)成熟度邁向新的臺(tái)階。
4結(jié)束語(yǔ)
雷達(dá)擔(dān)負(fù)著為各類(lèi)戰(zhàn)機(jī)在復(fù)雜戰(zhàn)場(chǎng)條件下提供穩(wěn)定的目標(biāo)檢測(cè)、跟蹤和識(shí)別能力的技術(shù)要求。隨著近年來(lái),各類(lèi)戰(zhàn)機(jī)作戰(zhàn)任務(wù)、作戰(zhàn)對(duì)象和作戰(zhàn)目標(biāo)的逐步擴(kuò)展,傳統(tǒng)雷達(dá)目標(biāo)檢測(cè)技術(shù)已經(jīng)難以適應(yīng)新的作戰(zhàn)需求,面臨明顯的技術(shù)瓶頸和制約。近年來(lái),隨著深度學(xué)習(xí)技術(shù)的日臻成熟,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)成為新的研究熱點(diǎn)。本文通過(guò)對(duì)目前深度學(xué)習(xí)目標(biāo)檢測(cè)研究領(lǐng)域典型算法進(jìn)行梳理和分析,并對(duì)其在雷達(dá)中的初步應(yīng)用進(jìn)行探討,對(duì)未來(lái)深度學(xué)習(xí)在雷達(dá)目標(biāo)檢測(cè)領(lǐng)域工程化應(yīng)用存在的問(wèn)題和可能發(fā)展的方向進(jìn)行探索。通過(guò)分析發(fā)現(xiàn),深度學(xué)習(xí)技術(shù)為雷達(dá)檢測(cè)領(lǐng)域帶來(lái)了新的思路和方法,未來(lái)將會(huì)有更多智能算法在雷達(dá)領(lǐng)域進(jìn)一步應(yīng)用,值得深入學(xué)習(xí)和研究。
參考文獻(xiàn)
[1]羅釘.機(jī)載有源相控陣火控雷達(dá)技術(shù)[M].北京:航空工業(yè)出版社, 2018. Luo Ding. Airborne AESA fire-control radar[M]. Beijing: Aviation Industry Press,2018. (in Chinese)
[2]Guerci J R,Goldstein J S. Optimal and adaptive reduced-rank STAP[J]. IEEE Transactions on Aerospace & Electronic Systems,2000,36(2):647-663.
[3]段克清,謝文沖,王永良.非均勻環(huán)境下機(jī)載雷達(dá)STAP方法[J].數(shù)據(jù)采集與處理,2010, 25(5):648-654. Duan Keqing,Xie Wenchong,Wang Yongliang. STAP method for airborne radar in nonhomogeneous environment[J]. Journal of Data Acquisition & Processing, 2010, 25(5): 648-654. ( in Chinese)
[4]Lecun Y,Bottou L. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE,1998,86(11):2278-2324.
[5]Ren S,He K,Girshick R,et al. Faster R-CNN:towards realtime object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(6):1137-1149.
[6]Redmon J,F(xiàn)arhadi A. YOLOV3:an incremental improvement[EB/OL].(2018-11-02). http://arxiv. org/pdf/1804.02767v1. pdf.
[7]Bengio Y. Learning deep architectures for AI[J]. Foundations and Trends in Machine Learning,2009,2(1):1-131.
[8]Hinton G E. Deep belief networks[J]. Scholarpedia,2009,4(6):5947.
[9]Cagli E,Cécile D,Prouff E. Convolutional neural networks with data augmentation against jitter-based countermeasures[C]// International Conference on Cryptographic Hardware and Embedded Systems,2017:45-68.
[10]Geng J,F(xiàn)an J,Wang H,et al. High-resolution SAR image classification via deep convolutional autoencoders[J]. IEEE Geoscience & Remote Sensing Letters,2015,12(11):1-5.
[11]Nguyen H,Ngo D,Do V. Deep learning for radar pulse detection[C]//8thInternationalConferenceonPattern RecognitionApplications and Methods,2019.
[12]Jokanovic B,Amin M. Fall detection using deep learning in range-doppler radars[J]. IEEE Transactions on Aerospace and Electronic Systems,2017,54(1):180-189.
[13]Mehmet S S,Sevgi Z G. Deep neural network initialization methods for micro-doppler classification with low training sample support[J]. IEEE Geoscience & Remote Sensing Letters,2017,14(12):2462-2466.
[14]歐微,柳少軍,賀筱媛,等.基于時(shí)序特征編碼的目標(biāo)戰(zhàn)術(shù)意圖識(shí)別算法[J].指揮控制與仿真, 2016,38(6):36-41. Ou Wei, Liu Shaojun, He Xiaoyuan, et al. Tactical intension recognition algorithm based on encoded temporal features[J]. Command Control & Simulation, 2016, 38(6): 36-41. (in Chinese)
[15]張曉海,操新文,耿松濤,等.基于深度學(xué)習(xí)的軍事輔助決策智能化研究[J].兵器裝備工程學(xué)報(bào), 2018, 39(10):168-173. Zhang Xiaohai,Cao Xinwen,Geng Songtao,et al. Research on Intelligence of military auxiliary decision-making system based on deep learning[J]. Journal of Ordnance Equipment Engineering, 2018, 39(10):168-173. (in Chinese)
[16]蘇寧遠(yuǎn),陳小龍,陳寶欣,等.雷達(dá)海上目標(biāo)雙通道卷積神經(jīng)網(wǎng)絡(luò)特征融合智能檢測(cè)方法[J].現(xiàn)代雷達(dá), 2019,41(10): 47-52. Su Ningyuan,Chen Xiaolong,Chen Baoxin,et al. Dualchannel convolutional neural networks feature fusion method for radar maritime target intelligent detection[J]. Modern Radar, 2019,41(10):47-52. ( in Chinese)
[17]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-timeobjectdetection[C]//The2016IEEE Conference on Computer Vision and Pattern recognition,2016:779-788.
[18]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchiesforaccurateobjectdetectionandsemantic segmentation[C] // IEEE Conference on Computer Vision & Pattern Recognition. IEEE Computer Society,2014:580-587.
[19]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multibox detector[C]//The 14th European Conference on Computer Vision,2016:21-37.
[20]Redmon J,F(xiàn)arhadi A. YOLO9000:better,faster,stronger[C]// IEEE Conference on Computer Vision & Pattern Recognition. IEEE,2017:6517-6525.
[21]Alexey B,Wang Chienyao,Mark Liao Hongyuan. YOLOV4:optimal speed and accuracy of object detection[EB/OL].(2020-04-23).http://arxiv.org/pdf/2004.10934v1.pdf.
[22]Hinton G E,Salakhutdinov R R. Reducing the dimensionality of data with neural networks.[J]. Science,2006,313(5786):504-511.
[23]Zhang S,Wang J,Tao X,et al. Constructing deep sparse coding network for image classification[J]. Journal of the Pattern Recognition Society,2017,64(11):130-140.
[24]Yan Huaqing,Zhang Zenghui,Xiong Gang,et al. Radar HRRP recognition based on sparse denoising autoencoder and multi-layer perceptron deep model[C]// Proceedings of the 4th International Conference on Ubiquitous Positioning,Indoor Navigation and Location Based Services,2016:283-288.
[25]Wang L,Tang J,Liao Q. A study on radar target detection based on deep neural networks[J]. IEEE Sensors Letters,2019,3(3):1-4.
[26]Peibei C,Weijie X,Ming Y,et al. Radar-ID:human identification based on radar micro-Doppler signatures using deep convolutional neural networks[J]. IET Radar Sonar & Navigation,2018,12(7):729-734.
[27]Su N Y,Chen X L,Mou X,et al. A deep learning method of moving target classification in clutter background[C]// International Conference in Communications,Signal Processing,and Systems,2018:303-311.
[28]Rodrigo P,Schubert F,Rasshofer R H,et al. Deep learning radar object detection and classification for urban automotive scenarios[C]// 2019 Kleinheubach Conference,2019.
[29]涂松.高分辨率SAR圖像目標(biāo)快速提取算法研究[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2016. Tu Song. Fast and accurate target extraction for high-resolution SAR imagery[D]. Changsha: National University of Defense Technology,2016. (in Chinese)
[30]Wang C,Zhang H,Wu F,et al. Ship classification with deep learning using COSMO-SkyMed SAR data[C]// IGARSS 2017-2017 IEEE International Geoscience and Remote Sensing Symposium. IEEE,2017.
[31]De S,Pirrone D,Bovolo F,et al. A novel change detection framework based on deep learning for the analysis of multitemporal polarimetric SAR images[C]// IGARSS 2017—2017 IEEEInternationalGeoscienceandRemoteSensing Symposium. IEEE,2017.
[32]Jiao J,Zhang Y,Sun H,et al. A densely connected end-toend neural network for multiscale and multiscene SAR ship detection[J]. IEEEAccess,2018(6):20881-20892.
[33]Zhao J,Guo W,Zhang Z,et al. A coupled convolutional neural network for small and densely clustered ship detection in SAR images[J]. Science China(Information Sciences),2019,62(4):42301.
[34]杜蘭,劉彬,王燕,等.基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)檢測(cè)算法[J].電子與信息學(xué)報(bào), 2016,38(12):3018-3025. Du Lan, Liu Bin, Wang Yan, et al. Target detection method based on convolutional neural networks for SAR Image[J]. Journal of Electronics & Information Technology,2016, 38(12):3018-3025. (in Chinese)
[35]楊龍,蘇娟,李響.基于深度卷積神經(jīng)網(wǎng)絡(luò)的SAR艦船目標(biāo)檢測(cè)[J].系統(tǒng)工程與電子技術(shù), 2019, 41(9):1990-1997. Yang Long, Su Juan, Li Xiang. Ship detection in SAR image based on deep convolutional neural network[J]. Systems Engineering and Eletronics, 2019, 41(9): 1990-1997. (in Chinese)
[36]Liu B,Yang D,Wang Z,et al. SAR target detection based on SSD with data augmentation and transfer learning[J]. IEEE Geoscience and Remote Sensing Letters,2019,16(1):150-154.
[37]Wang Y,Wang C,Zhang H,et al. Combing single shot multibox detector with transfer learning for ship detection usingChineseGaofen-3images[C]//2017Progressin Electromagnetics Research Symposium-Fall(PIERS-FALL). IEEE,2017.
[38]Zongyong C,Sihang D,Zongjie C,et al. SAR target recognition in large scene images via region-based convolutional neural networks[J]. Remote Sensing,2018,10(5):776.
[39]Khan H M,Yunze C. Ship detection in SAR Image using YOLOv2[C]// 2018 37th Chinese Control Conference(CCC),2018.
[40]Chang Y L,Anagaw A,Chang L,et al. Ship detection based on YOLOV2 for SAR imagery[J]. Remote Sensing,2019,11(7):784-786.
[41]胡昌華,陳辰,何川,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)艦船小目標(biāo)檢測(cè)[J].中國(guó)慣性技術(shù)學(xué)報(bào),2019,27(3): 397-406. Hu Changhua, Chen Chen,He Chuan,et al.SAR detection for small target ship based on deep convolutional neural network[J]. Journal of Chinese Inertial Technology, 2019, 27(3): 397-406. (in Chinese)
[42]Liu Ningbo,Xu Yanan,Tian Yonghua,et al. Background classification method based on deep learning for intelligent automotive radar target detection[J]. Future Generation Computer Systems,2019,94(5):524-535.
(責(zé)任編輯陳東曉)
作者簡(jiǎn)介
宋婷(1991-)女,碩士,工程師。主要研究方向:雷達(dá)智能化探測(cè)、認(rèn)知雷達(dá)等。
Tel:15261597156E-mail:tinasongting@163.com
賀豐收(1979-)男,博士,高級(jí)工程師。主要研究方向:多源信號(hào)融合、信號(hào)檢測(cè)、雷達(dá)數(shù)據(jù)處理等。
程宇峰(1973-)男,研究員。主要研究方向:智能化雷達(dá)、雷達(dá)系統(tǒng)等。
Research Progress of Deep Learning Technology in Radar Target Detection
Song Ting1,*,He Fengshou1,2,Cheng Yufeng1
1. Aviation Key Laboratory of Science and Technology on AISSS,AVIC Leihua Electronic Technology Research Institute,Wuxi 214063,China
2. Northwestern Polytechnical University,Xian 710129,China
Abstract: The detection of interesting targets is the basic task for radar. Target detection technology is one of the key technologies in the field of radar signal processing. Since deep learning methods establish an end-to-end network to avoid the lack of artificial feature expression and achieve superior detection performance, it has received more and more attention in the radar field. This paper first introduces the relevant knowledge in target detection and points out the limitation of traditional detection methods; then analyze the current classic methods of deep neural network detection, mainly focuses on the research status of deep learning techniques in radar target detection. Finally, the technical challenges of the application towards deep learning methods in targets detection are analyzed, and the development trend of related technology in the future is prospected.
Key Words: deep learning; radar target detection technology; deep neural network; sequence signal detection; time-frequency domain detection