何松華 張潤民 歐建平 張軍
摘? ?要:提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的高分辨率雷達(dá)目標(biāo)識(shí)別方法.首先針對(duì)小樣本應(yīng)用于深度CNN時(shí)訓(xùn)練過程中損失函數(shù)值收斂速度慢的問題,利用結(jié)合批歸一化算法的改進(jìn)CNN網(wǎng)絡(luò)對(duì)高分辨距離像(High Resolution Range Profile,HRRP)進(jìn)行自動(dòng)特征提取;再利用支持向量機(jī)(Support Vector Machine,SVM)對(duì)距離像特征進(jìn)行分類.使用軍事車輛高保真電磁仿真數(shù)據(jù)對(duì)提出的方法進(jìn)行驗(yàn)證,識(shí)別結(jié)果證明了該方法的有效性.
關(guān)鍵詞:高分辨距離像;雷達(dá)目標(biāo)識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);批歸一化;支持向量機(jī)
中圖分類號(hào):TN957.51? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A
High Resolution Radar Target Recognition Based
on Convolution Neural Network
HE Songhua1,ZHANG Runmin1?覮,OU Jianping2,ZHANG Jun2
(1.College of Computer Science and Electronic Engineering,Hunan University,Changsha 410082,China;
2.ATR Laboratory,National University of Defense Technology,Changsha 410073,China )
Abstract:A new method of high resolution radar target recognition based on Convolution Neural Network (CNN) was presented. To solve the problem of slow convergence of loss function values during the training process when small samples are applied to the deep CNN, High Resolution Range Profile (HRRP) features were firstly extracted by using the improved CNN combined with the Batch Normalization (BN) algorithm, and then classified by using a Support Vector Machine (SVM). The experimental results using high-fidelity electromagnetic simulation data of military vehicles validate the effectiveness of the proposed method.
Key words:High Resolution Range Profile(HRRP);radar target recognition;Convolution Neural Network (CNN);Batch Normalization(BN);Support Vector Machine(SVM)
高分辨距離像(HRRP)是用寬帶雷達(dá)信號(hào)獲取的目標(biāo)散射點(diǎn)子回波在雷達(dá)射線上投影的向量和,它提供了目標(biāo)散射點(diǎn)沿距離方向的分布情況,是目標(biāo)重要的結(jié)構(gòu)特征.HRRP具有分辨率穩(wěn)定、易于獲取與實(shí)現(xiàn)和成像周期短等特點(diǎn),因而基于HRRP的目標(biāo)識(shí)別成為國內(nèi)外的研究熱點(diǎn)[1-2].
傳統(tǒng)的HRRP目標(biāo)識(shí)別方法有基于距離像特征抽取的識(shí)別、基于距離像模板的匹配識(shí)別和基于三維散射中心模型的識(shí)別等.特征抽取是從距離像上提取反映不同目標(biāo)差異的、并在一定姿態(tài)角范圍內(nèi)具有穩(wěn)定特征,目標(biāo)識(shí)別所需的存儲(chǔ)量和匹配運(yùn)算量較少,單穩(wěn)定特征提取較難,特征抽取后的分類器設(shè)計(jì)復(fù)雜.模板匹配法是將實(shí)時(shí)獲取的目標(biāo)距離像或其特征與預(yù)先獲取并存儲(chǔ)的已知目標(biāo)的不同姿態(tài)的距離像或其特征模板進(jìn)行匹配,通過合理范圍內(nèi)的全姿態(tài)匹配以適應(yīng)一維距離像對(duì)目標(biāo)姿態(tài)的敏感性,優(yōu)點(diǎn)是識(shí)別率較高,但模板存儲(chǔ)量以及姿態(tài)匹配運(yùn)算量大.第三種方法是通過高保真電磁仿真計(jì)算、超分辨譜估計(jì)和三維散射中心提取等方法事先建立并存儲(chǔ)目標(biāo)的全姿態(tài)三維散射中心分布模型,并通過模型來預(yù)測(cè)目標(biāo)在合理姿態(tài)范圍內(nèi)的目標(biāo)距離像或其特征,與實(shí)時(shí)獲取的目標(biāo)距離像或其特征進(jìn)行匹配,由于不需存儲(chǔ)不同姿態(tài)的距離像或特征模板,存儲(chǔ)量顯著降低,但需要的姿態(tài)搜索、特征預(yù)測(cè)和匹配識(shí)別所需的運(yùn)算量依然較大.
文獻(xiàn)中經(jīng)常使用的特征提取方法有平移不變特征、變換特征和結(jié)構(gòu)特征等.上述算法都需要基于相關(guān)領(lǐng)域的深層知識(shí)經(jīng)驗(yàn)來提取特征,因而導(dǎo)致了較大的不確定性.近年來深度神經(jīng)網(wǎng)絡(luò)方法在圖像識(shí)別領(lǐng)域取得了很大成功[3-4]. 主要模型有深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)[5]、棧式降噪自動(dòng)編碼器(Stacked Denoising Autoencoders,SDA)[6]和卷積神經(jīng)網(wǎng)絡(luò)(CNN)[7]等.
CNN作為一種監(jiān)督學(xué)習(xí)算法,去除了傳統(tǒng)目標(biāo)識(shí)別中復(fù)雜的特征提取和數(shù)據(jù)重建過程,利用多個(gè)非線性隱含層,將輸入的復(fù)雜分層特征表示出來.卷積層的權(quán)值共享減少了網(wǎng)絡(luò)的訓(xùn)練參數(shù)、降低了模型的復(fù)雜度.池化操作大大減少了網(wǎng)絡(luò)的神經(jīng)元數(shù),使得網(wǎng)絡(luò)對(duì)平移、旋轉(zhuǎn)等變換具有魯棒性.
CNN架構(gòu)的研究不斷取得突破性進(jìn)展.Karen Simonyan提出的VGGNet模型包含了16~19個(gè)權(quán)重值,整個(gè)網(wǎng)絡(luò)一致使用了3*3的卷積核和2*2的匯聚層,顯示出網(wǎng)絡(luò)深度對(duì)算法性能的提高具有關(guān)鍵作用[8]. He提出的殘差網(wǎng)絡(luò)(ResNet)結(jié)構(gòu)采用了獨(dú)特的跳躍鏈接,多次使用批歸一化,在ImageNet數(shù)據(jù)集上構(gòu)建了152層網(wǎng)絡(luò),雖然其深度是VGGNet深度的8倍,但仍具有較低的復(fù)雜度[9].CNN在高距離分辨雷達(dá)目標(biāo)識(shí)別領(lǐng)域已經(jīng)有了很多成功應(yīng)用.Jarmo基于多基地雷達(dá)系統(tǒng),將CNN應(yīng)用于飛機(jī)目標(biāo)識(shí)別[10]. Osman設(shè)計(jì)了有效的CNN模型,自動(dòng)提取了艦船目標(biāo)距離像特征,實(shí)現(xiàn)了軍事和民用車輛的識(shí)別[11].
就目前國內(nèi)外研究現(xiàn)狀而言,地面車輛目標(biāo)的HRRP識(shí)別研究不多.因此本文將CNN應(yīng)用于軍事車輛的HRRP目標(biāo)識(shí)別領(lǐng)域,減少了特征選擇的人工步驟.CNN以往在處理小數(shù)據(jù)集時(shí),往往由于網(wǎng)絡(luò)模型復(fù)雜、數(shù)據(jù)源所提供的特征有限等因素,會(huì)導(dǎo)致訓(xùn)練過程損失函數(shù)收斂過慢問題.本文針對(duì)該情況,借鑒了VGGNet網(wǎng)絡(luò)特點(diǎn),將批歸一化算法[12]引入改進(jìn)的CNN網(wǎng)絡(luò),從而對(duì)距離像進(jìn)行特征提取.為進(jìn)一步提高目標(biāo)分類能力,將Softmax分類器替換為支持向量機(jī)[13].基于車輛目標(biāo)高保真電磁仿真數(shù)據(jù)的識(shí)別實(shí)驗(yàn)表明,本文方法具有更高的識(shí)別率,驗(yàn)證了其有效性.
1? ?信號(hào)模型
理論分析表明,光學(xué)區(qū)雷達(dá)目標(biāo)的電磁散射可以用目標(biāo)的局部散射源表示,稱這些局部散射源為散射中心.散射中心是光學(xué)區(qū)雷達(dá)目標(biāo)的重要特征,可利用散射中心模型對(duì)光學(xué)區(qū)雷達(dá)目標(biāo)的散射特性進(jìn)行準(zhǔn)確建模.在不發(fā)生散射中心超距離單元走動(dòng)(Motion Through Range Cells,MTRC)的轉(zhuǎn)角區(qū)間內(nèi),距離單元內(nèi)散射中心數(shù)目保持不變,反射強(qiáng)度也幾乎恒定.設(shè)距離單元分辨率為Δr,目標(biāo)橫向長(zhǎng)度設(shè)為L(zhǎng)x,則散射中心不產(chǎn)生MTRC的轉(zhuǎn)角區(qū)間為
當(dāng)采用亞米級(jí)分辨率雷達(dá)對(duì)地面目標(biāo)觀測(cè)時(shí),根據(jù)經(jīng)驗(yàn),Δθ一般為3°~5°左右,假設(shè)雷達(dá)在目標(biāo)運(yùn)動(dòng)過程中接收到N次回波、且不產(chǎn)生MTRC.設(shè)第m個(gè)距離單元內(nèi)第t個(gè)散射中心在第n(n = 1,2,…,N)次回波相對(duì)于目標(biāo)質(zhì)心的徑向位移差為Δrmt(n)
式中:Tm為第m(m = 1,2,…,M)個(gè)距離單元內(nèi)散射中心總個(gè)數(shù);amt是距離單元電磁回波中常數(shù)項(xiàng)的乘積,即為第m個(gè)距離單元內(nèi)第t個(gè)散射中心回波的反射系數(shù);?準(zhǔn)mt表示初始相位;λ表示波長(zhǎng).因復(fù)數(shù)距離像的相位對(duì)目標(biāo)姿態(tài)和距離變動(dòng)很敏感,且不確定性較大,在匹配識(shí)別中難以利用,所以在實(shí)驗(yàn)中通常采用實(shí)數(shù)HRRP,則第n次回波幅度定義為:
X = x1(n),x2(n),…,xM(n)T? ? (3)
由于雷達(dá)到目標(biāo)距離、天線增益、雷達(dá)接收機(jī)增益等雷達(dá)系統(tǒng)參數(shù)的差異,不同目標(biāo)與雷達(dá)的距離像具有不同的幅度尺度標(biāo)準(zhǔn),即便是同一目標(biāo)的HRRP,觀測(cè)條件不同,其幅度也存在很大差異,稱為HRRP的強(qiáng)度敏感性. 解決此類敏感性,通常采用舍棄距離像的強(qiáng)度信息而只利用形狀信息.具體處理方法為在一定測(cè)度準(zhǔn)則下對(duì)X做強(qiáng)度歸一化處理,然后輸入到CNN模型分類器,本文采用L2范數(shù)歸一化.訓(xùn)練時(shí)采用距離像序列,測(cè)試時(shí)采用單幅距離像,使得識(shí)別模型不僅適應(yīng)目標(biāo)姿態(tài)變化,而且適應(yīng)目標(biāo)距離像在非嚴(yán)格遠(yuǎn)場(chǎng)條件且相對(duì)運(yùn)動(dòng)過程中的起伏.
2? 卷積神經(jīng)網(wǎng)絡(luò)
CNN通常由輸入層、卷積層、匯聚層、全連接層和輸出層組成.其中卷積層和匯聚層稱為隱含層.CNN的權(quán)值共享結(jié)構(gòu)使其更接近生物神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)性能可以通過改變網(wǎng)絡(luò)的深度和廣度來調(diào)整.CNN能有效減少網(wǎng)絡(luò)連接和權(quán)值參數(shù),因而有效降低了網(wǎng)絡(luò)模型的學(xué)習(xí)復(fù)雜度,相比于大規(guī)模神經(jīng)元連接的全連接網(wǎng)絡(luò)更容易訓(xùn)練.
原始數(shù)據(jù)在CNN中的計(jì)算過程是前向傳播的,即前一層的輸出是當(dāng)前層的輸入.設(shè)CNN模型輸入的原始數(shù)據(jù)為X,本文用Ki表示網(wǎng)絡(luò)的第i層特征圖,且K0 = X. 此處先假設(shè)Ki是卷積層,則第i層輸出特征圖為:
Ki = f(Ki-1*Wi + bi)? ? (4)
式中:Wi表示第i層卷積核的權(quán)值向量;“*”表示卷積核與第i-1層特征圖的卷積操作,其輸出結(jié)果與第i層的偏置項(xiàng)bi相加,最后通過非線性激活函數(shù)f的映射得到第i層特征圖Ki.卷積層計(jì)算了所有神經(jīng)元的輸出.卷積層中的每一個(gè)神經(jīng)元都與輸入層中的局部區(qū)域連接,每個(gè)神經(jīng)元都計(jì)算本身與輸入層相連的區(qū)域與自身權(quán)重的內(nèi)積.卷積層用于提取輸入特征,對(duì)于圖像數(shù)據(jù)而言,如第一層卷積能提取邊緣、線條等低級(jí)特征,越深的卷積層越能提取更深層次的特征.
一般情況下,在連續(xù)的卷積層之間插入一個(gè)匯聚層. 假設(shè)Ki是匯聚層,則有:
Ki = downsampling(Ki-1)? ? (5)
匯聚層的功能就是按照一定規(guī)則對(duì)特征圖進(jìn)行下采樣,逐步降低數(shù)據(jù)的空間尺寸,減少網(wǎng)絡(luò)參數(shù)數(shù)量和計(jì)算資源的耗費(fèi),有效控制過擬合.
經(jīng)過多個(gè)卷積層和匯聚層的交替?zhèn)鞑?,最后通過全連接層對(duì)提取的特征進(jìn)行分類.全連接層作用是將學(xué)到的分布式特征表示映射到標(biāo)記空間,得到輸入K0隸屬于不同類別的概率矢量Y,即:
Y(i) = P(L = li|K0;(W,b))? ? (6)
式中:li表示第i個(gè)標(biāo)簽類別.CNN模型實(shí)質(zhì)上是將原始矩陣K0經(jīng)過多層數(shù)據(jù)變換或降維,映射到一個(gè)新的特征表達(dá)Y的過程.
3? ?卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)
3.1? ?引入批歸一化
本文借鑒了VGGNet架構(gòu)的特點(diǎn),又根據(jù)所用小數(shù)據(jù)訓(xùn)練樣本的特點(diǎn),提出一種新的CNN模型架構(gòu).由于本文模型借鑒了VGGNet網(wǎng)絡(luò)的大深度模型,當(dāng)靠前的層參數(shù)變化時(shí),每層的輸入分布在訓(xùn)練過程也會(huì)變化.這只有通過較低的學(xué)習(xí)率和繁瑣的參數(shù)初始化來減慢訓(xùn)練速度,導(dǎo)致了訓(xùn)練具有飽和非線性的模型變得異常困難.此現(xiàn)象稱為內(nèi)部協(xié)變量移位.
在訓(xùn)練過程中,隨著網(wǎng)絡(luò)加深,深度神經(jīng)網(wǎng)絡(luò)中的激活輸入值在做非線性變換前,其分布會(huì)逐漸發(fā)生偏移,即其整體分布逐漸往非線性函數(shù)取值區(qū)間的上下端點(diǎn)逼近,從而導(dǎo)致后向傳播時(shí)底層神經(jīng)網(wǎng)絡(luò)的梯度消失,進(jìn)而造成網(wǎng)絡(luò)訓(xùn)練速度變慢.為了解決此類問題,本文將Ioffe提出的批歸一化(Batch Normalization,BN)算法引入到改進(jìn)的CNN中,通過一定的規(guī)范化算法,把每層神經(jīng)網(wǎng)絡(luò)的任意神經(jīng)元激活輸入值強(qiáng)制拉回標(biāo)準(zhǔn)正態(tài)分布,使輸入值落入非線性函數(shù)的敏感區(qū),使輸入值小的變動(dòng)就會(huì)導(dǎo)致?lián)p失函數(shù)較大變化,即增大梯度,加速收斂.
假設(shè)CNN網(wǎng)絡(luò)中某一層輸入數(shù)據(jù)集合為{x1,…,xs},該批小樣本數(shù)據(jù)的數(shù)量為s,引入BN算法對(duì)輸入樣本數(shù)據(jù)進(jìn)行批歸一化,輸出數(shù)據(jù)集合設(shè)為{y1,…,ys},算法主要步驟如下:
Step1.計(jì)算輸入激活數(shù)據(jù)集的期望:
式(9)中的ε加在分母上是為了防止除零錯(cuò)誤,目的是確保重構(gòu)變換的數(shù)值穩(wěn)定性,一般取接近0的正數(shù).式(9)只相當(dāng)于把非線性函數(shù)變成了線性函數(shù),即把每層的數(shù)據(jù)分布標(biāo)準(zhǔn)化,但這種強(qiáng)制歸一化會(huì)破壞網(wǎng)格中間層的固有分布,為了解決由此帶來的網(wǎng)絡(luò)表達(dá)能力下降的問題,保證非線性狀態(tài)的學(xué)習(xí),引入了式(10)的重構(gòu)變換對(duì)歸一化值進(jìn)行縮放和移位.通過這個(gè)操作調(diào)整歸一化值的標(biāo)準(zhǔn)正態(tài)分布,在每個(gè)數(shù)據(jù)集上調(diào)整程度不同,作用是把非線性函數(shù)值從中心的線性區(qū)往非線性區(qū)移動(dòng),在具有較強(qiáng)的非線性表達(dá)能力的同時(shí),又避免太靠近線性區(qū)兩端,導(dǎo)致網(wǎng)絡(luò)收斂速度太慢.
3.2? ?引入支持向量機(jī)分類
CNN架構(gòu)從本質(zhì)上說,卷積層、匯聚層和激活函數(shù)層的作用是將原始數(shù)據(jù)映射到隱層特征空間,其中卷積層用以提取輸入數(shù)據(jù)的局部特征,它生成的每個(gè)特征圖都是對(duì)輸入數(shù)據(jù)的局部特征的某個(gè)角度的描述.而全連接層負(fù)責(zé)將學(xué)到的分布式特征表示映射到標(biāo)記樣本空間,關(guān)鍵功能是維度變換,把高維數(shù)據(jù)降到低維,全連接層的每個(gè)和特征圖相同尺寸的卷積核從一個(gè)特定角度對(duì)這些特征圖進(jìn)行組合,用以后續(xù)的分類.CNN最后的輸出層一般采用Softmax函數(shù),其通過全連接方式將多個(gè)神經(jīng)元的輸出,映射到(0,1)區(qū)間的概率,輸出每一個(gè)分類的概率.該方法能與反向傳播過程有效結(jié)合.邏輯回歸的損失函數(shù)源于全局?jǐn)?shù)據(jù)的概率模型,Softmax又基于回歸原則,為邏輯回歸的多分類特例.因此,Softmax分類考慮全局樣本的同時(shí),其分類超平面將會(huì)受到每個(gè)樣本的干擾,導(dǎo)致非線性分類效果一般.
而支持向量機(jī)(SVM)基于結(jié)構(gòu)代價(jià)最小化準(zhǔn)則,核心思想為通過預(yù)先指定的非線性變換將輸入矢量映射至另外的高維特征空間,在此空間構(gòu)造最優(yōu)分類超平面.SVM的性能主要受支持向量的影響,當(dāng)支持向量機(jī)改變非支持向量樣本時(shí),并不會(huì)引起決策面的變化,因而其非線性分類性能優(yōu)良.已經(jīng)有研究表明在人工神經(jīng)網(wǎng)絡(luò)架構(gòu)中,使用SVM做分類能獲得比Softmax更優(yōu)異的性能[14-15]. 由于本實(shí)驗(yàn)數(shù)據(jù)源屬于小樣本,在原始數(shù)據(jù)經(jīng)過歸一化預(yù)處理且CNN基本模型相對(duì)復(fù)雜的情況下,采用SVM代替Softmax做分類,預(yù)期可以提高最終識(shí)別準(zhǔn)確率[16].因此本文采用SVM代替Softmax用作CNN模型的分類器,隱含層輸出的高維特征,經(jīng)過全連接層后,被平鋪成一維數(shù)據(jù),再輸入SVM分類器進(jìn)行類別判定.
4? ?實(shí)驗(yàn)結(jié)果
4.1? ?實(shí)驗(yàn)數(shù)據(jù)源
為了驗(yàn)證本文所提出的目標(biāo)識(shí)別系統(tǒng)的有效性,采用了高頻電磁計(jì)算軟件獲取的4類車輛目標(biāo)的寬帶電磁散射數(shù)據(jù),對(duì)這些數(shù)據(jù)做逆傅里葉變換(IFFT)處理,可得到目標(biāo)的距離像.該4類雷達(dá)目標(biāo)電磁仿真數(shù)據(jù)是基于東南大學(xué)毫米波國家重點(diǎn)實(shí)驗(yàn)室研發(fā)的NESC高頻電磁散射仿真軟件計(jì)算而
得[17-18].仿真數(shù)據(jù)庫中的4類地面車輛目標(biāo)分別為裝甲運(yùn)輸車、重型運(yùn)輸車、重型卡車和廂式卡車,目標(biāo)CAD模型及其在典型姿態(tài)下的距離像如圖1所示.
基于CAD模型,將表1中預(yù)設(shè)的電磁參數(shù)輸入上述電磁計(jì)算系統(tǒng)得到4類目標(biāo)全方位觀測(cè)角度下的多極化電磁散射數(shù)據(jù).圖1中各類目標(biāo)模型右邊圖像為各個(gè)目標(biāo)在同一觀測(cè)角度、HH極化方式下的歸一化高分辨距離像示意圖,為簡(jiǎn)潔起見圖中HRRP只展示出64個(gè)非零距離單元.由圖可見,各目標(biāo)距離像的幅度、峰值位置等差異較大,此類差異信息就構(gòu)成了基于HRRP進(jìn)行目標(biāo)分類的基礎(chǔ).
對(duì)目標(biāo)的同一個(gè)觀測(cè)角度下的步進(jìn)頻率回波信號(hào)進(jìn)行IFFT合成一維距離像. 為了消除距離像的強(qiáng)度敏感性[19],在訓(xùn)練前可對(duì)每幅距離像獨(dú)立進(jìn)行l(wèi)2歸一化. 由于電磁仿真數(shù)據(jù)是類轉(zhuǎn)臺(tái)數(shù)據(jù),不必平移對(duì)準(zhǔn).
實(shí)驗(yàn)中選取在HH極化方式下的目標(biāo)電磁散射回波作為基礎(chǔ)數(shù)據(jù)集,在不同俯仰角下進(jìn)行電磁計(jì)算,27°俯仰角下的觀測(cè)數(shù)據(jù)作為訓(xùn)練集,30°下的作為測(cè)試集,每個(gè)目標(biāo)的訓(xùn)練和測(cè)試集各有14 400個(gè)樣本.
4.2? ?網(wǎng)絡(luò)模型
實(shí)驗(yàn)中用于4類仿真目標(biāo)HRRP識(shí)別的系統(tǒng)模型如圖2所示,該模型借鑒了VGGNet架構(gòu),根據(jù)所采用數(shù)據(jù)集的特點(diǎn),提出并采用了一種新的CNN模型架構(gòu).該網(wǎng)絡(luò)包含了8個(gè)卷積層,所有卷積層都采用步長(zhǎng)為1進(jìn)行3*1的卷積.匯聚層都采用步長(zhǎng)為2進(jìn)行2*1的最大值匯聚.本實(shí)驗(yàn)采用Keras深度學(xué)習(xí)的框架,采用Theano作為后端進(jìn)行張量操作.
整個(gè)網(wǎng)絡(luò)有4大隱含層,每段內(nèi)有2個(gè)卷積層,且每層卷積核數(shù)量一樣,BN操作置于激活函數(shù)ReLu之前.網(wǎng)絡(luò)隨層數(shù)遞增過程中,匯聚操作逐步忽略局部信息,特征圖的維度隨著每個(gè)匯聚操作縮小一半,特征圖維度依次變化為:128,64,32,16,8.但是深度隨著4個(gè)隱含層依次遞增:16,24,32,64.最小批尺寸為32,訓(xùn)練次數(shù)為150次,初始學(xué)習(xí)率為0.000 1,動(dòng)量為0.9.
HE S H,XIAO H T,SUN W F,et al. A study of high range resolution polarization radar target recognition by using matched correlators[J]. Acta Electronica Sinica,1999,27(3):110—112.(In Chinese)
[3]? ? 田壯壯,占榮輝,胡杰民,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究[J]. 雷達(dá)學(xué)報(bào),2016,5(3):320—325.
TIAN Z Z,ZHAN R H,HU J M,et al. SAR ATR based on convolutional neural network[J]. Journal of Radars,2016,5(3):320—325.(In Chinese)
[4]? ? 宋青松,張超,田正鑫,等. 基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,45(8):131—137.
SONG Q S,ZHANG C,TIAN Z X,et al. Traffic sign recognition based on multi-scale convolutional neural network[J].Journal of Hunan University (Natural Sciences),2018,45(8):131—137.(In Chinese)
[5]? ? HINTON G E,OSINDER S,THE Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation,2006,18(7):1527—1554.
[6]? ? VINCENT P,LAROCHELLE H,LAJOIE I,et al. Stacked denoising autoencoders:learning useful representations in a deep network with a local denoising criterion[J].The Journal of Machine Learning Research,2010,11:3371—3408.
[7]? ? LECUN Y,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278—2324.
[8]? ? KAREN S,ANDREW Z. Very deep convolution net-works for large-scale image recognition[C]//International Conference on Learning Representations(ICLR). San Diego,2015,arXiv:1409. 1556.
[9]? ? HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE,2016:770—778.
[10]? JARMO L,VISA K. Deep learning for HRRP-based target recognition in multistatic radar systems[C]//IEEE Radar Conference. Philadelphia:IEEE,2016:1—6.
[11]? OSMAN K,OKAN M Y,MEHMET Z K,et al. Convolutional neural networks-based ship target recognition using high resolution range profiles[C]//18th International Radar Symposium.Prague:IEEE,2017:1—6.
[12]? SERGEY I,CHRISTIAN S. Batchnormalization:accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on Machine Learning(ICML).Lille,2015:448—456. arXiv:1502.03167.
[13]? CORTES C,VAPNIK V. Support-vector networks[J].Machine Learning,1995,20(3):273—297.
[14]? DARMATASIA,MOHAMAD I F. Handwriting recognition on form document using convolutional neural network and support vector machines (CNN-SVM)[C]//5th International Conference on Information and Communication Technology(ICoIC7). Melaka:IEEE,2017:1—6.
[15]? ALALSHEKMUBARAK A,SMITH L S. A novel approachcombining recurrent neural network and support vector machines for time series classification[C]//9th International Conference on Innovations in Information Technology. Abu Dhabi:IEEE,2013:42—47.
[16]? ABIEN F A. An architecture combining convolutional neural network(CNN) and support vector machine(SVM) for image classification[astro-ph.CO] Adamson University,Manila,2017. arXiv preprint arXiv:1712.03541.
[17]? 呂志清,安翔,洪偉. 電磁散射的拉格朗日乘子區(qū)域分解算法[J]. 電子學(xué)報(bào),2007,35(6):1069—1073.
L?譈 Z Q,AN X,HONG W. Domain decomposition method with Lagrange multipliers for the analysis of electromagnetic scattering[J]. Acta Electronica Sinica,2007,35(6):1069—1073.(In Chinese)
[18]? 殷曉星,王群,洪偉. 目標(biāo)雷達(dá)散射截面的高頻適用條件[J]. 現(xiàn)代雷達(dá),2007,29(1):6-8.
YIN X X,WANG Q,HONG W. Restriction condition of radar cross section of objects in high frequency[J]. Modern Radar,2007,29(1):6—8.(In Chinese)
[19]? 袁莉. 基于高分辨距離像的雷達(dá)目標(biāo)識(shí)別方法研究[D]. 西安:西安電子科技大學(xué)電子工程學(xué)院,2007:7—8.
YUAN L. Research on radar target recognition method based on high resolution range profile[D]. Xi′an:School of Electronic Engineering,Xidian University,2007:7—8.(In Chinese)
[20]? ZYWECK A,BOGNER R E. Radar target classification of commercial aircraft[J]. IEEE Transactionson Aerospace and Electronic Systems,1996,32(2):598—606.
[21]? JI S,YA X,CARIN L. Bayesian compressive sen-sing[J]. IEEE Transactions on Signal Processing,2008,56(6):2346—2356.
[22]? SHEKHAR S,VISHAL M P,NASSER M N,et al. Joint sparse representation for robust multimodal biometrics recognition[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence,2013,35:1—14.
[23]? 劉盛啟. 基于高分辨距離像的特征提取與識(shí)別增強(qiáng)技術(shù)[D]. 長(zhǎng)沙:國防科技大學(xué)ATR實(shí)驗(yàn)室,2016:33—44.
LIU S Q. Research on feature extraction and recognition performance enhancement algorithms based on high range resolution profile[D]. Changsha:ATR Laboratory,National University of Defense Technology,2016:33—44.(In Chinese)
[24]? LIU S Q,ZHAN R H,ZHAI Q L,et al. Multi-view radar target recognition based on Bayesian compressive sensing[J]. Journal of Electro-magnetic Waves and Applications,2015,687(14):3704—3708.
[25]? LIU S Q,ZHAN R H,ZHAI Q L,et al. Full-polarization HRRP recognition based on joint sparse representation[C]//IEEE Radar Conference. Johannesburg:IEEE,2015:333—338.