国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Res-Net深度特征的SAR圖像目標(biāo)識別方法

2021-04-09 13:44高紅艷衛(wèi)澤剛劉亞軍
液晶與顯示 2021年4期
關(guān)鍵詞:訓(xùn)練樣本相似性深度

劉 飛, 高紅艷, 衛(wèi)澤剛, 劉亞軍, 錢 郁

(1. 寶雞文理學(xué)院 物理與光電技術(shù)學(xué)院,陜西 寶雞 721013;2. 寶雞文理學(xué)院 寶雞先進(jìn)鈦合金與功能涂層協(xié)同創(chuàng)新研發(fā)中心,陜西 寶雞 721013)

1 引 言

通過對合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)獲得的高分辨率圖像進(jìn)行處理,可實現(xiàn)對聚焦區(qū)域或感興趣目標(biāo)的分析解譯。SAR目標(biāo)識別技術(shù)可用于偵察以及情報解譯[1-2]。自20世紀(jì)90年代以來,隨著模式識別、人工智能技術(shù)的發(fā)展,SAR目標(biāo)識別方法不斷豐富,取得了長足的進(jìn)步。主流SAR目標(biāo)識別方法通常運用特征提取和分類階段的兩級流程實現(xiàn)未知樣本的類別確認(rèn)。SAR圖像典型目標(biāo)特征包括幾何形狀、投影變換以及電磁散射等類別。以目標(biāo)輪廓、區(qū)域、陰影等為代表性的形狀特征,具備區(qū)分不同類別的能力[3-6]。投影變換算法包括數(shù)學(xué)投影和變換域分解等,前者包括矩陣分解、流形學(xué)習(xí)等[7-9],后者包括小波、單演信號、模態(tài)分解等[10-12]。電磁散射特征體現(xiàn)目標(biāo)的后向散射特性,如峰值、散射中心、極化方式等[13-14]。分類決策階段與特征提取緊密耦合,利用特征的差異性判定輸入樣本的所屬類別。近鄰分類器(最近鄰、多近鄰等)[15]、支持向量機(Support Vector Machine,SVM)[16]、稀疏表示分類(Sparse Representation based Classification,SRC)[17]是現(xiàn)有SAR目標(biāo)識別方法運用最為廣泛的分類器。隨著近年來深度學(xué)習(xí)技術(shù)的迅猛發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[18-20]為代表的深度學(xué)習(xí)模型已成為SAR目標(biāo)識別中的主流算法。

本文在現(xiàn)有研究的基礎(chǔ)上提出了結(jié)合深度學(xué)習(xí)模型和傳統(tǒng)分類機制的SAR目標(biāo)識別方法。在特征學(xué)習(xí)階段采用深度殘差網(wǎng)絡(luò)(Deep Residual Networks,Res-Net)[21-22]進(jìn)行目標(biāo)多層次的特征圖學(xué)習(xí)。相比傳統(tǒng)的手工設(shè)計特征,基于Res-Net訓(xùn)練得到的特征圖具有描述能力更強的優(yōu)勢,可為決策階段提供更充分的鑒別力信息??紤]到SAR目標(biāo)識別中廣泛存在擴展操作條件(Extended Operating Condition,EOC),即測試樣本與訓(xùn)練樣本存在較大的差異,待識別樣本經(jīng)過Res-Net獲得的多層次特征圖中可能存在若干無效成分。剔除這些無效成分有利于提高識別算法的整體效率和精度。為此,本文采用結(jié)構(gòu)相似性準(zhǔn)則計算各個特征圖與原始樣本的相關(guān)性[23],并通過門限法提出低相似度的部分。對于判決保留的特征圖,基于聯(lián)合稀疏表示模型[11-12]進(jìn)行表征分類。在實驗中,基于MSTAR數(shù)據(jù)集設(shè)置標(biāo)準(zhǔn)操作條件(Standard Operating Condition,SOC)和擴展操作條件對方法進(jìn)行測試驗證,結(jié)果證實了其有效性和穩(wěn)健性。

2 基于Res-Net的深度特征學(xué)習(xí)

Res-Net由Kaiming He提出并在多項圖像檢測、分割等大賽中得到了充分驗證[21-22]。隨著網(wǎng)絡(luò)層數(shù)的不斷增加,其學(xué)習(xí)得到的特征愈加豐富,更能反映圖像中感興趣目標(biāo)的多方面特性,但同時也會導(dǎo)致嚴(yán)重的梯度消失問題。為此,Res-Net提出殘差學(xué)習(xí)克服網(wǎng)絡(luò)優(yōu)化困難的問題。假設(shè)H(x)表示最佳映射,利用堆疊的非線性層獲得新的映射F(x)=H(x)-x,進(jìn)而獲得當(dāng)前最佳映射F(x)=H(x)+x。F(x)+x可在前饋網(wǎng)絡(luò)增加“快捷連接”操作獲得。該操作具有高效穩(wěn)健的優(yōu)勢,不會帶來額外的運算復(fù)雜度。

現(xiàn)有研究成果已經(jīng)驗證了Res-Net在圖像處理(如目標(biāo)檢測、識別)領(lǐng)域的有效性。為此,本文將其引入SAR目標(biāo)識別,主要用于多層次深度特征的學(xué)習(xí)和獲取。圖1顯示了本文應(yīng)用于SAR圖像特征學(xué)習(xí)的Res-Net結(jié)構(gòu),共包含20層。相比一般卷積神經(jīng)網(wǎng)絡(luò),Res-Net可實現(xiàn)輸入與后續(xù)非相鄰層的直接連接,從而最大程度減少信息丟失以及損耗等問題。Res-Net簡化了網(wǎng)絡(luò)學(xué)習(xí)的難度并提高了整體訓(xùn)練效率?;趫D1可學(xué)習(xí)獲得SAR圖像多層次的特征圖。這些深度特征可從不同側(cè)面反映圖像中目標(biāo)的各類特性,可為目標(biāo)識別提供有效的鑒別力信息。

圖1 Res-Net結(jié)構(gòu)示意圖Fig.1 Architecture of designed Res-Net

3 深度特征篩選

基于Res-Net學(xué)習(xí)的SAR圖像多層次特征圖能夠從不同方面反映目標(biāo)的特性。然而,SAR目標(biāo)識別中存在多種擴展操作條件,當(dāng)測試樣本與訓(xùn)練集差異較大時,其學(xué)習(xí)的深度特征可能存在若干無效成分。為此,本文基于結(jié)構(gòu)相似性進(jìn)行有效深度特征的篩選,并用于后續(xù)的分類決策[23]。

記參考圖像和輸入圖像分別為I1和I2,并具有相同尺寸。結(jié)構(gòu)相似性指數(shù)(SSIM)從亮度、對比度、結(jié)構(gòu)3個方面評價兩幅圖像的相關(guān)性[23],定義如下:

SSIM(I1,I2)=l(I1,I2)·c(I1,I2)·s(I1,I2),

(1)

式中,l(I1,I2),c(I1,I2),s(I1,I2)分別對應(yīng)亮度、對比度以及結(jié)構(gòu)比較函數(shù),定義如下:

(2)

(3)

(4)

式中,(μ1,σ1)、(μ2,σ2)分別為I1和I2均值和方差;σ12代表兩者之間的協(xié)方差;C1、C2和C3均為大于零的常數(shù)。

本文基于結(jié)構(gòu)相似性進(jìn)行Res-Net深度特征的篩選。分別計算各個層次的特征圖與輸入圖像的結(jié)構(gòu)相似性指數(shù)。對于相似性較高,認(rèn)為其能夠保持原始圖像的特性,予以保留并用于后續(xù)的分類;反之,則剔除。本文設(shè)置相似性門限T,對于結(jié)構(gòu)相似性大于門限的予以保留。

4 聯(lián)合多層次特征圖的識別算法

4.1 聯(lián)合稀疏表示

聯(lián)合稀疏表示模型是傳統(tǒng)SRC分類器的拓展延伸,具備同時處理多個稀疏表示問題的能力。假設(shè)經(jīng)過結(jié)構(gòu)相似性準(zhǔn)則篩選得到K個深度特征矢量,記為[y(1)y(2)…y(K)],采用稀疏表示對它們進(jìn)行表征的基礎(chǔ)模型如下:

y(k)=A(k)α(k)+ε(k)(k=1,2,…,K),

(5)

式中,A(k)為對應(yīng)k深度特征的全局字典,通過對所有訓(xùn)練樣本的處理獲得;α(k)為系數(shù)矢量。

聯(lián)合稀疏表示框架下,采用式(6)對K個稀疏表示問題進(jìn)行統(tǒng)一考察:

(6)

式中,β=[α(1)α(2)…α(K)]。

不足的是,式(6)的優(yōu)化過程并沒有體現(xiàn)同一SAR圖像不同層次深度特征之間的關(guān)聯(lián),影響系數(shù)矢量的求解精度,經(jīng)典的聯(lián)合稀疏表示模型調(diào)整優(yōu)化目標(biāo)函數(shù)如下:

(7)

在l1/l2范數(shù)的約束下,式(7)中的矩陣β各列中的系數(shù)矢量傾向相同的分布規(guī)律,體現(xiàn)不同深度特征的內(nèi)在關(guān)聯(lián)。針對上述問題,較為成熟的求解算法包括多任務(wù)貝葉斯壓縮感知、同時正交匹配追蹤等。根據(jù)求解結(jié)果,按照式(10)計算不同訓(xùn)練類別對測試樣本(相應(yīng)的深度特征矢量)的重構(gòu)誤差并判定其類別。

(8)

4.2 識別流程

根據(jù)前文論述,構(gòu)設(shè)如圖2所示的方法流程,描述本文方法的主要步驟。首先,采用所有訓(xùn)練樣本對圖1所示的Res-Net進(jìn)行訓(xùn)練,獲得可用于特征學(xué)習(xí)的模型。對于測試樣本,將其輸入訓(xùn)練后的Res-Net獲得多層次深度特征,進(jìn)而根據(jù)結(jié)構(gòu)相似性準(zhǔn)則選取若干高鑒別力深度特征(結(jié)構(gòu)相似性門限T設(shè)置為0.6)。此時,對訓(xùn)練樣本的深度特征進(jìn)行對應(yīng)成分選取并分別構(gòu)建全局字典。最終,在聯(lián)合稀疏表示模型的處理下,獲得各個訓(xùn)練樣本對于測試樣本的重構(gòu)誤差,進(jìn)而獲得目標(biāo)類別。

圖2 基于結(jié)構(gòu)相似性的深度特征篩選及SAR目標(biāo)識別流程圖Fig.2 Flowchart of SAR target recognition based on selected deep features by structural similarity

5 實驗與分析

實驗中以MSTAR公開數(shù)據(jù)集為基礎(chǔ),構(gòu)設(shè)典型測試場景對所提方法進(jìn)行測試。該數(shù)據(jù)集包含外形尺寸相近的10類目標(biāo)(圖3)不同條件下獲取的數(shù)千幅SAR圖像。據(jù)此,可設(shè)置訓(xùn)練和測試樣本開展訓(xùn)練和分類。表1給出了基于MSTAR數(shù)據(jù)集設(shè)置的一種代表性測試場景,常視為標(biāo)準(zhǔn)操作條件。其中囊括了全部10類目標(biāo),訓(xùn)練樣本俯仰角為17°,訓(xùn)練樣本俯仰角為15°。除此之外,還可設(shè)置擴展操作條件對方法的穩(wěn)健性進(jìn)行考察,包括后續(xù)實驗中的俯仰角差異(測試場景2)和噪聲干擾(測試場景3)。

實驗過程中,選用當(dāng)前文獻(xiàn)中較為常見的幾類方法進(jìn)行比較,包括SVM[16]、SRC[17]、A-ConvNet[18]以及Res-Net(直接用于分類,不經(jīng)過特征選取和聯(lián)合表征)。這幾類方法主要是采用了不同的分類機制,其中A-ConvNet和Res-Net采用CNN作為基礎(chǔ)分類器,但在網(wǎng)絡(luò)結(jié)構(gòu)上有所區(qū)別。與Res-Net方法比較,本文主要是在特征學(xué)習(xí)之后進(jìn)行了篩選,并利用聯(lián)合稀疏表示進(jìn)行最終分類。為定量對比不同方法的性能,本文定義平均識別率如下:

(9)

式中,Nc和Nt分別表示正確分類以及全部測試樣本數(shù)目。

圖3 MSTAR目標(biāo)示意圖Fig.3 Illustration of MSTAR targets

表1 場景1~10類目標(biāo)標(biāo)準(zhǔn)操作條件Tab.1 Scenario 1 ~ 10 targets under SOC

5.1 標(biāo)準(zhǔn)操作條件

基于表1中的測試和訓(xùn)練樣本對所提方法在標(biāo)準(zhǔn)操作條件下進(jìn)行測試。圖4顯示了所提方法對10類目標(biāo)的混淆矩陣,其中縱坐標(biāo)為樣本的實際類別,其與橫坐標(biāo)對應(yīng)類別的元素對應(yīng)分類精度。因此,圖4中的對角線元素反映了不同類別的正確識別率,按照式(9)計算得到10類目標(biāo)的平均識別率為99.02%,表明了方法的有效性。表2為所有方法在當(dāng)前場景下的結(jié)果統(tǒng)計。4類對比方法的平均識別率依次為98.16%(SVM)、98.32%(SRC)、98.78%(A-ConvNet)和98.80%(Res-Net),均低于所提方法。特別地,與兩類基于CNN的方法相比,本文通過有效選取Res-Net多層次深度特征并利用聯(lián)合稀疏表示進(jìn)行分類,進(jìn)一步提升了最終性能。表2同時對比了各類方法的時間消耗。SVM和SRC由于分類器相對簡單,其效率處于優(yōu)勢水平。與直接運用Res-Net的方法相比,本文由于進(jìn)一步引入了深度特征構(gòu)造和聯(lián)合稀疏表示,增加了時間消耗。

圖4 場景1下所提方法對各類別識別結(jié)果Fig.4 Recognition results of each class by the proposed method under scenario 1

表2 場景1下結(jié)果統(tǒng)計Tab.2 Results under scenario 1

5.2 俯仰角差異

在測試場景1時,設(shè)置的測試與訓(xùn)練集俯仰角十分接近。實際過程中,SAR傳感器可能工作在不同的高度,這導(dǎo)致待識別樣本可能來自于訓(xùn)練樣本差異較大的俯仰角?;贛STAR數(shù)據(jù)集的SAR圖像樣本,本實驗設(shè)置如表3所示的測試場景,包含3類目標(biāo)。其中,訓(xùn)練樣本均為17°俯仰角下的SAR圖像;測試樣本區(qū)分30°和45°兩個子集。圖5統(tǒng)計了各類方法對兩個子集樣本的平均識別率。對比而言,在45°俯仰角時,因測試樣本與訓(xùn)練樣本差異過大,導(dǎo)致各性能顯著降低。分別比較兩個角度下的結(jié)果,可驗證所提方法的識別最高,穩(wěn)健性最強。本文采用結(jié)構(gòu)相似性選擇有效選取了對于適宜當(dāng)前測試條件的深度特征,通過聯(lián)合稀疏表示得到的識別結(jié)果更為可靠,對于俯仰角差異的穩(wěn)健性更強。

表3 場景2—俯仰角差異Tab.3 Scenario 2 — depression angle variance

圖5 場景2下的結(jié)果統(tǒng)計Fig.5 Results under scenario 2

5.3 噪聲干擾

雷達(dá)成像過程中,可能受到自然或人為的干擾,導(dǎo)致最終獲得的圖像信噪比(Signal-to-Noise Ratio,SNR)降低。此時,正確識別目標(biāo)類別的難度大大加劇。MSTAR數(shù)據(jù)集中原始SAR圖像均來自合作測試條件,信噪比相對較高,且保持在相近水平。為測試所提方法對于噪聲干擾的有效性,本實驗對表1中的測試樣本按照文獻(xiàn)[13]的策略條件不同程度的噪聲,進(jìn)而測試方法在不同信噪比下的平均識別率,并將此條件記為“測試場景3”。如圖6所示,所提方法在-10,-5,0,5,10共5個噪聲水平下均保持最高的識別率,顯示其噪聲穩(wěn)健性。與SVM、A-ConvNet和Res-Net方法相比,SRC方法在低于0 dB的噪聲水平時性能更優(yōu),表明稀疏表示機制對于噪聲為適應(yīng)性。本文通過有效的特征篩選并結(jié)合聯(lián)合稀疏表示對于噪聲干擾的適應(yīng)性進(jìn)一步提升了方法的整體性能。

圖6 場景3下的結(jié)果統(tǒng)計Fig.6 Results under scenario 3

6 結(jié) 論

本文基于Res-Net和聯(lián)合稀疏表示設(shè)計SAR圖像目標(biāo)識別方法。對于測試樣本,采用Res-Net選取其多層次深度特征,并基于結(jié)構(gòu)相似性準(zhǔn)則選取其中的高鑒別力成分。通過聯(lián)合稀疏表示進(jìn)行表征及分類。實驗在MSTAR數(shù)據(jù)集上設(shè)置并開展,綜合分析識別效率、識別精度和識別穩(wěn)健性,結(jié)果證明了所提方法的有效性。后續(xù)研究中,本文將從Res-Net的結(jié)構(gòu)優(yōu)化以及深度特征的選取策略方面進(jìn)一步深化成果。

猜你喜歡
訓(xùn)練樣本相似性深度
一類上三角算子矩陣的相似性與酉相似性
深度理解一元一次方程
淺析當(dāng)代中西方繪畫的相似性
人工智能
深度觀察
深度觀察
深度觀察
寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識別算法
基于稀疏重構(gòu)的機載雷達(dá)訓(xùn)練樣本挑選方法