摘 要:針對已有Cohen類時頻分布等方法時頻聚焦能力不足、在低信噪比(signal to noise ratio, SNR)情況下調(diào)制識別準(zhǔn)確率低的問題,提出一種基于同步提取變換(synchro-extracting transform, SET)去噪的分組卷積神經(jīng)網(wǎng)絡(luò)調(diào)制識別方法。所提方法使用SET對雷達(dá)信號進(jìn)行時頻分析,以獲得良好的時頻聚焦性,提高時頻分析的計算效率;通過Viterbi算法搜索估計時頻系數(shù)矩陣中的瞬時頻率軌跡,綜合考慮信號能量強(qiáng)度分布與瞬時頻率軌跡的平滑性,并對得到的瞬時頻率軌跡進(jìn)行中值濾波以去除脈沖噪聲;保留瞬時頻率軌跡鄰域的時頻系數(shù),以達(dá)到時頻圖去噪的目的。最后,將去噪后的時頻圖送入具有殘差連接的分組卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取與調(diào)制識別。實(shí)驗(yàn)結(jié)果表明,當(dāng)SNR為-12 dB時,去噪后的SET時頻圖時頻聚焦性好,調(diào)制識別準(zhǔn)確率比未去噪的識別準(zhǔn)確率提高了13.69%,證明所提出的雷達(dá)信號調(diào)制識別方法在低SNR條件下對多種復(fù)雜調(diào)制類型的信號具有良好的識別性能。
關(guān)鍵詞: 雷達(dá)信號調(diào)制識別; 同步提取變換; 瞬時頻率估計; 去噪
中圖分類號: TN 957.51 文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.10.11
Radar signal modulation recognition method based on synchro-extracting
transform denoising
DENG Zhian1, WANG Zhiguo1, WANG Sheng’ao3, SI Weijian1,2
(1. College of Information and Communication Engineering, Harbin Engineering University, Harbin 15000 China;
2. Key Laboratory of Advanced Marine Communication and Information Technology, Ministry of Industry and
Information Technology, Harbin 15000 China; 3. Department of Science and Information Technology,
Sichuan Jiuzhou Investment Holding Group Company Limited, Mianyang 621000, China)
Abstract: Due to the insufficient time-frequency focusing ability of the existing Cohen-class time-frequency distribution and low modulation recognition accuracy under low signal to noise ratio (SNR), a grouped convolutional neural network modulation recognition method based on synchronous extracting transform (SET) denoising is proposed. Firstly, SET is used for time-frequency analysis of the radar signals, providing better time-frequency focusing and computational efficiency of time-frequency analysis. Then, the Viterbi algorithm is utilized to search and estimate the instaneous frequency trajectory in the time-frequency coefficient matrix, taking into account the distribution of signal energy intensity and the smoothness of the instaneous frequency trajectory. At the same time, a median filter is applied to remove pulse noise from the obtained instaneous frequency trajectory, and the time-frequency coefficients in the vicinity of the instaneous frequency trajectory are retained to achieve time-frequency image denoising. Finally, the denoised time-frequency images are sent to a grouped convolution neural network with residual connections for feature extraction and modulation recognition. The experimental results demonstrate that, when the SNR is -12 dB, the denoised SET time-frequency images have good time-frequency focusing, and the modulation recognition accuracy is improved by 13.69% compared to the recognition accuracy without denoising. The proposed radar signal modulation recognition method exhibits excellent recognition performance for various complex modulation types of signals under low SNR conditions.
Keywords: radar signal modulation recognition; synchro-extracting transform; instaneous frequency estimation; denoising
0 引 言
雷達(dá)信號的調(diào)制識別是電子情報偵察、電子支援、威脅警告等系統(tǒng)中的關(guān)鍵技術(shù),在雷達(dá)電子戰(zhàn)中起著重要作用[12]。其中,傳統(tǒng)雷達(dá)信號的調(diào)制識別主要基于雷達(dá)信號脈間特征的參數(shù)匹配[34],適用于脈沖密度較低的常規(guī)雷達(dá)調(diào)制。脈沖雷達(dá)壓縮技術(shù)的應(yīng)用有效提高了雷達(dá)分辨力,但降低了回波信號的信噪比(signal to noise ratio, SNR),導(dǎo)致調(diào)制識別精度降低[5]。為進(jìn)一步提高復(fù)雜雷達(dá)信號的調(diào)制識別能力,脈內(nèi)特征受到廣泛關(guān)注。脈內(nèi)調(diào)制識別主要包括基于決策理論的似然假設(shè)檢驗(yàn)法[69]和基于特征提取的識別方法[1013]。然而,這些方法計算復(fù)雜度高,泛化能力和抗噪聲性能較弱,實(shí)用性差,難以滿足復(fù)雜雷達(dá)脈內(nèi)調(diào)制識別要求[14]。因此,在低SNR條件下提高復(fù)雜雷達(dá)信號的調(diào)制識別能力在電子戰(zhàn)中具有重要意義。
近年來,利用深度學(xué)習(xí)實(shí)現(xiàn)雷達(dá)信號的調(diào)制識別成為研究熱點(diǎn)。基于深度學(xué)習(xí)的雷達(dá)信號調(diào)制識別主要分為兩類:基于同向正交(in-phase quadrature, IQ)序列的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)調(diào)制識別方法[1517]和基于時頻圖像的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)調(diào)制識別方法。相比于傳統(tǒng)的人工構(gòu)造特征,前者可以獲得更多、更深層的信號特征,從而提高識別性能,但是網(wǎng)絡(luò)復(fù)雜度較高。目前主流的方法是將IQ數(shù)據(jù)從時域轉(zhuǎn)到時頻域形成二維圖像,將信號序列分類轉(zhuǎn)變?yōu)閳D像分類。Li等[18]利用微調(diào)的AlexNet卷積層提取12種雷達(dá)信號崔威廉斯分布(Choi-Williams distribution, CWD)圖像的深層特征,當(dāng)SNR為-6 dB時,識別準(zhǔn)確率高達(dá)97.58%。Liao等[19]使用多特征隨機(jī)匹配融合網(wǎng)絡(luò)學(xué)習(xí)雷達(dá)信號的CWD圖像特征和7個傳統(tǒng)特征。當(dāng)SNR為-6 dB時,10種雷達(dá)信號的平均識別準(zhǔn)確率達(dá)到了95.4%。Zhang等[20]使用平滑偽魏格納維利分布(smoothed pseudo Wigner-Ville distribution, SPWVD)和伯恩約旦分布(Born-Jordan distribution, BJD)將信號轉(zhuǎn)化為兩種時頻圖像,并利用多模態(tài)融合模型對兩種圖像特征和8種手工特征進(jìn)行融合,當(dāng)SNR為-4 dB時,識別準(zhǔn)確率達(dá)到了92.5%。針對低截獲概率雷達(dá)信號識別率低的問題,郭立民等[21]提出一種基于CWD和棧式稀疏自編碼器的自動分類識別系統(tǒng)。當(dāng)SNR為-6 dB時,8種雷達(dá)信號的平均識別準(zhǔn)確率達(dá)到96.4%。邵凱等[22]提出了一種基于生成對抗網(wǎng)絡(luò)和CNN的數(shù)字信號調(diào)制識別方法,該方法利用SPWVD將調(diào)制信號轉(zhuǎn)化為時頻圖,并利用生成對抗網(wǎng)絡(luò)實(shí)現(xiàn)對時頻圖的去噪和修復(fù)。當(dāng)SNR為-8 dB時,9種調(diào)制信號的平均識別準(zhǔn)確率達(dá)到了83.3%。
將雷達(dá)信號通過Cohen類時頻分布(CWD、SPWVD、BJD)轉(zhuǎn)換為二維時頻圖,再基于時頻圖進(jìn)行信號的特征提取與識別已成為一種通用方法。然而,Cohen類時頻分布需要計算三重積分,計算復(fù)雜度高,預(yù)處理過程實(shí)時性較差,且在低SNR下,時頻圖受噪聲影響較大,識別效果較差;同時,已有方法的測試數(shù)據(jù)集與訓(xùn)練數(shù)據(jù)集的信號參數(shù)空間一致,這導(dǎo)致測試數(shù)據(jù)被泄漏到訓(xùn)練數(shù)據(jù)中,無法客觀地衡量模型的泛化性能。
本文提出一種基于同步提取變換(synchro-extracting transform, SET)去噪的CNN調(diào)制識別方法。通過SET變換結(jié)合Viterbi搜索時頻系數(shù)矩陣,獲得信號瞬時頻率軌跡,對瞬時頻率軌跡進(jìn)行中值濾波,并保留其鄰域內(nèi)的時頻系數(shù),實(shí)現(xiàn)時頻圖的去噪。最后,利用分組CNN對去噪后的時頻圖進(jìn)行特征提取,實(shí)現(xiàn)調(diào)制信號的識別。SET的時頻聚焦性和計算效率優(yōu)于已有的Cohen類時頻分布。在進(jìn)行瞬時頻率軌跡搜索時,Viterbi算法同時考慮了每個時刻下信號能量分布和瞬時頻率軌跡的平滑性,時頻圖去噪后的圖像質(zhì)量明顯優(yōu)于去噪前的圖像質(zhì)量。使用具有殘差結(jié)構(gòu)的分組卷積網(wǎng)絡(luò)實(shí)現(xiàn)對調(diào)制信號的識別,在減少網(wǎng)絡(luò)模型參數(shù)的同時保證了網(wǎng)絡(luò)的識別精度。同時,使用不同的信號參數(shù)生成網(wǎng)絡(luò)的訓(xùn)練集與測試集,保證了網(wǎng)絡(luò)性能評估的客觀性。
1 基于SET去噪的分組卷積網(wǎng)絡(luò)調(diào)制識別方法
本文對13種常見雷達(dá)信號調(diào)制方式進(jìn)行識別,這些調(diào)制方式包括二進(jìn)制相位調(diào)制(binary phase shift keying, BPSK),相位編碼選用巴克碼(Baker code)、連續(xù)波(continuous-wave, CW)、二進(jìn)制頻移鍵控(binary frequency shift keying, 2FSK)、四進(jìn)制頻移鍵控(quad frequency shift keying, 4FSK)、線性調(diào)頻(linear frequency modulation, LFM)、雙LFM(double LFM, DLFM)、正弦調(diào)頻(sine frequency modulation, SFM)、偶二次調(diào)頻(even quadratic frequency modulation, EQFM)、弗蘭克碼(Frank code)、多相碼(P1 code~P4 code)。
所提出的雷達(dá)信號調(diào)制識別方法由信號預(yù)處理和分類器兩部分組成,如圖1所示。首先,基于SET時頻變換得到截獲信號時頻系數(shù)矩陣。然后,利用Viterbi算法搜索時頻系數(shù)矩陣以獲得信號的瞬時頻率軌跡并進(jìn)行中值濾波,保留瞬時頻率鄰域的時頻系數(shù)并將其他時頻系數(shù)置0,以盡可能去除截獲信號的背景噪聲。最后,將去噪后的時頻系數(shù)轉(zhuǎn)化為時頻圖,并調(diào)整為合適尺寸,送入分組CNN進(jìn)行特征提取識別。
1.1 SET時頻變換
信號s(t)∈L2(R)在實(shí)偶窗口g(t)∈L2(R)下的短時傅里葉變換為
H(t,ω)=∫+∞-∞s(τ)g(τ-t)e-jωτdτ(1)
將H(t, ω)乘以一個相移系數(shù)ejωt,可以得到:
Hp(t,ω)=∫+∞-∞s(τ)g(τ-t)e-jω(τ-t)dτ(2)
當(dāng)Hp(t, ω)≠0時,短時傅里葉變換的中頻ω0(t, ω)為
ω0(t,ω)=-jtHp(t,ω)Hp(t,ω)(3)
式中:
tHp(t,ω)=
t∫+∞-∞s(τ)g(τ-t)e-jω(τ-t)dτ=
-Hg′p(t,ω)+jω·HP(t,ω)(4)
結(jié)合式(3)與式(4)可得:
ω0(t,ω)=j·Hg′p(t,ω)Hp(t,ω)+ω(5)
式中:g′是窗函數(shù)對時間t的導(dǎo)數(shù)。將時頻系數(shù)壓縮到中頻ω0附近區(qū)域,可提高短時傅里葉變換的時頻聚焦性[23]。為解決因噪聲擴(kuò)散導(dǎo)致時頻系數(shù)壓縮結(jié)果的魯棒性較差等問題,僅保留中頻ω0軌跡上的時頻系數(shù),SET[24]時頻表達(dá)式為
SET(t,ω)=Ge(t,ω)δ(ω-ω0(t,ω))(6)
式中:δ(ω-ω0(t, ω))的表達(dá)式為
δ(ω-ω0(t,ω))=1,-j·Hg′p(t,ω)Hp(t,ω)=0
0,-j·Hg′p(t,ω)Hp(t,ω)≠0(7)
SET只保留與信號時變性最相關(guān)短時傅里葉變換結(jié)果的時頻信息,去除了大量因噪聲引起的干擾能量,極大增強(qiáng)了能量的集中性。
Cohen類時頻分布的表達(dá)式如下:
Cx(t,Ω:g)=
12πx(u+τ/2)x*(u-τ/2)·
g(θ,τ)e-j(θt+Ωτ-uθ)dudτdθ(8)
式中:x(μ)為待分析的信號,x*(μ)為其共軛;Ω為信號的角頻率;g(θ, τ)為核函數(shù),不同的核函數(shù)對應(yīng)不同的時頻分布。Cohen類時頻分布需要計算三重積分,而SET需要計算兩次一重積分。為比較SET、CWD和SPWVD這3種時頻分布的計算效率,將信號長度設(shè)置為N個采樣點(diǎn),SET的短時傅里葉變換窗口長度為N/10,傅里葉變換的長度為N。將CWD和SPWVD的時間平滑窗口長度設(shè)置為N/10,頻率平滑窗口長度為N/4,傅里葉變換的長度為N。每種時頻分布分別計算1 000次,平均每次計算所需要時間如表1所示。在相同條件下,SET計算耗時分別為CWD的27%、SPWVD的24%。
使用SET生成雷達(dá)信號的時頻圖可最大化縮短預(yù)處理所需要的時間,提高預(yù)處理過程的實(shí)時性。圖2分別為基于SET、CWD、SPWVD時頻分布生成的SFM調(diào)制信號的時頻圖。從圖2中可知,相比于CWD和SPWVD,SET的時頻曲線更清晰,能量更集中,時頻聚焦性更好。
圖3為Baker碼的SET時頻圖。由于SET時頻分布能量集中,當(dāng)雷達(dá)信號為調(diào)相信號時,時頻曲線較細(xì)且存在斷裂現(xiàn)象,如圖3(a)所示。圖3(b)為圖3(a)的細(xì)節(jié)放大圖,放大之后時頻曲線顯示完整。直接使用插值調(diào)整原始時頻圖的尺寸,調(diào)整后的圖像也會出現(xiàn)時頻曲線斷裂的現(xiàn)象(見圖3(c)),同時調(diào)制識別準(zhǔn)確率降低。為解決該問題,需先將原始時頻圖保存為高分辯率(每英寸點(diǎn)數(shù))(dots per inch, DPI)圖片,然后再使用插值等方式將圖像尺寸調(diào)整為所需大小,在一定程度上保證時頻曲線的完整性,如圖3(d)所示。
1.2 基于Viterbi算法的SET時頻分布去噪
在雷達(dá)信號處理中,偵察接收機(jī)截獲的信號包含大量噪聲,導(dǎo)致信號時頻特征受到干擾。為消除噪聲影響并保留信號時頻特征,提高調(diào)制識別的準(zhǔn)確率,提出一種基于Viterbi-SET時頻圖的去噪算法。該算法通過SET變換獲得信號的時頻系數(shù)矩陣,利用Viterbi算法搜索時頻系數(shù)矩陣中信號真實(shí)頻率的瞬時頻率軌跡,并保留每個瞬時頻率鄰域內(nèi)的時頻系數(shù),最終實(shí)現(xiàn)去噪。
為簡單起見,本文只考慮單分量雷達(dá)信號。單分量雷達(dá)信號r(t)經(jīng)SET時頻變換生成時頻系數(shù)矩陣TFI(ti, ωj),其中i=1,2,…,n;j=1,2,…,m。每個時刻t都對應(yīng)一個瞬時頻率ω,將ω按時間順序連接,獲得信號的瞬時頻率軌跡ω(t)。t1到tn之間的所有瞬時頻率軌跡構(gòu)成集合K,選擇一條合適的軌跡:
Trace=argminω(t)∈K[∑n-1i=ig(ω(ti),ω(ti+1))+
∑ni=1f(TFI(ti,ω(ti)))]=
argminω(t)∈K p(ω(t);t1,tn)(9)
讓式(9)最小化,實(shí)現(xiàn)瞬時頻率估計。
其中,p(ω(t); t tn)是懲罰函數(shù)g(x, y)和f(x)沿軌跡ω(t)從t1到tn的和;g(x, y)考慮頻率估計的平滑性;f(x)考慮瞬時頻率處的能量大小。函數(shù)g(x, y)=g(|x-y|)是關(guān)于x和y之間絕對距離|x-y|的非遞減函數(shù)(其中x=ω(ti)和y=ω(ti+1)是相鄰點(diǎn)的瞬時頻率),f(x)是關(guān)于x=TFI(ti, ω(ti))的非遞增函數(shù)。在某一時刻下,某個頻率處的時頻系數(shù)模值越大,其就越可能是該時刻下的瞬時頻率。對于某時刻t,時頻系數(shù)按照非遞增順序排列:
TFI(t,ω1)≥TFI(t,ω2)≥…≥TFI(t,ωm)(10)
則f(x)可以寫成以下形式:
f(TFI(t,ωj))=j-1(11)
在低SNR環(huán)境下,實(shí)際瞬時頻率位于第j個點(diǎn)的概率隨著j的增加而下降,即時頻值較大的點(diǎn)是實(shí)際瞬時頻率點(diǎn)的概率較大。因此,當(dāng)g(x, y)為常數(shù)時,瞬時頻率估計僅取決于時頻系數(shù)最大值的位置,g(x, y)表達(dá)式為
g(x,y)=0, |x-y|≤Δ
c(|x-y|-Δ), |x-y|gt;Δ(12)
式中:c是懲罰系數(shù)的權(quán)重;Δ是相鄰點(diǎn)之間瞬時頻率變化期望的最大值,相鄰點(diǎn)瞬時頻率變化較小時,懲罰值為0。當(dāng)Δ→∞時,式(9)變?yōu)閮H由時頻系數(shù)最大值決定。g(x, y)有利于消除算法中的非最優(yōu)路徑。
最優(yōu)路徑的尋找步驟如下:在一個n=3,m=5的時頻系數(shù)矩陣中,令fij=f(TFI(ti, ωj)),gij=g(ωi, ωj),取c=2.5,Δ=1。在初始狀態(tài)下,每個節(jié)點(diǎn)的懲罰值pij=fij,如圖4(a)所示。以(t2,ω1)為例,在t2時刻下,每個節(jié)點(diǎn)的最佳路徑懲罰函數(shù)為
p2j=minl=1,2,…,5[p1l+glj]+f2j(13)
前一時刻的5個節(jié)點(diǎn)懲罰值p1j分別為4、2、3、0、1,到達(dá)(t ω1)的5條路徑的懲罰值gl1分別為0、0、2.5、5、7.5,這5條路徑的累積懲罰值分別為4、2、5.5、5、8.5,取最小值2,因此只保留(t ω2)→(t ω1)這條路徑,此時(t ω1)的懲罰值更新為0+2=2,如圖4(b)所示。每個節(jié)點(diǎn)的最終懲罰值如圖4(c)所示。在t3時刻的5個節(jié)點(diǎn)中,(t3, ω5)的最終懲罰值最小,所以由(t3, ω5)向前回溯,得到最終的瞬時頻率估計路徑為(t ω4)→(t ω4)→(t3, ω5)。
基于Viterbi-SET時頻圖去噪算法的實(shí)現(xiàn)步驟如下:首先通過SET時頻變換生成雷達(dá)信號的時頻系數(shù)矩陣,然后使用式(9)定義的懲罰函數(shù)向前搜索瞬時頻率路徑,每個時刻下的頻率節(jié)點(diǎn)僅保留一條最優(yōu)路徑并更新節(jié)點(diǎn)的懲罰值。在所有時刻搜索完畢后,從懲罰值最小的節(jié)點(diǎn)向前回溯,獲得最有可能接近真實(shí)頻率的瞬時頻率軌跡。對該瞬時頻率進(jìn)行21階中值濾波,進(jìn)一步去除頻率估計中的脈沖噪聲。保留瞬時頻率鄰域10×2區(qū)域的時頻系數(shù),并將其他時頻系數(shù)置0,以達(dá)到去除噪聲的效果。使用去噪后的時頻系數(shù)矩陣生成時頻圖,送入CNN,實(shí)現(xiàn)對調(diào)制信號的識別。
1.3 分組卷積網(wǎng)絡(luò)調(diào)制識別模型
在獲得去噪的時頻圖后,將這些圖像送入CNN進(jìn)行特征的提取和識別。為了提高網(wǎng)絡(luò)的識別性能,利用分組卷積并引入殘差結(jié)構(gòu),解決了訓(xùn)練過程中梯度消失、梯度爆炸、訓(xùn)練網(wǎng)絡(luò)不收斂以及因網(wǎng)絡(luò)參數(shù)量龐大而不適合在邊緣設(shè)備部署的問題。CNN的整體結(jié)構(gòu)如圖5所示。圖5中,CHout表示分組卷積塊輸出。
為了獲得較大的感受野,第一個卷積層使用5×5卷積核來提取圖像特征,并且以s=2對圖像進(jìn)行下采樣,減小圖像尺寸。批歸一化層(batch normalization, BN)將卷積結(jié)果歸一化,這樣可以很好地防止網(wǎng)絡(luò)過擬合并且加快收斂。平均池化層對特征下采樣減少冗余信息,提高計算效率,增大網(wǎng)絡(luò)感受野。Stage 1~Stage 4表示4個分組卷積塊,結(jié)構(gòu)如圖6所示。圖6中,CHin表示分組卷積塊輸入特征圖的通道數(shù)。
分組卷積將卷積核拆分為多個組,分別對應(yīng)輸入特征圖的部分通道卷積,以有效減少模型的參數(shù)量。當(dāng)一個卷積層的輸入通道數(shù)為Ci,輸出通道數(shù)為Co,卷積核大小為k×k時,采用分組卷積,分組數(shù)為G,參數(shù)量為G×(Ci/G)×(Co/G)×k2,而標(biāo)準(zhǔn)卷積參數(shù)量為Ci×Co×k2。相比于標(biāo)準(zhǔn)卷積,分組卷積的參數(shù)量減少為原來的1/G。圖5中每個Stage將原本的3×3卷積分為4組,其參數(shù)量變?yōu)樵瓉淼?5%。為保證每個分組卷積在對部分通道卷積的同時考慮不同通道之間的聯(lián)系,在分組前采用1×1卷積對輸入特征進(jìn)行線性變換,建立所有通道之間的聯(lián)系。分組的卷積結(jié)果拼接后的通道數(shù)為2CHout,再次使用1×1卷積進(jìn)行降維。同時,將殘差結(jié)構(gòu)引入Stage中,通過短連接將輸入添加到輸出中,增加信息熵。在訓(xùn)練過程中,網(wǎng)絡(luò)底層的誤差可以通過殘差結(jié)構(gòu)傳遞到下一層,從而提高網(wǎng)絡(luò)的收斂性能,緩解因?qū)訑?shù)增加引起的梯度消失或梯度爆炸問題。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 雷達(dá)信號參數(shù)仿真設(shè)置
本文采用BPSK(Baker)、CW、DLFM、EQFM、Frank碼、2FSK、4FSK、LFM、P1碼、P2碼、P3碼、P4碼、SFM這13種雷達(dá)調(diào)制信號來測試識別性能。設(shè)置采樣率fs=100 MHz,信號參數(shù)設(shè)置如表2所示。
為了更好地衡量網(wǎng)絡(luò)的泛化性能,訓(xùn)練集的信號參數(shù)不同于測試集。在訓(xùn)練集中,每種調(diào)制信號的SNR為-8~12 dB,間隔為2 dB。每種調(diào)制信號在每個SNR下產(chǎn)生600個
樣本,其中500個樣本用于訓(xùn)練,100個樣本用于驗(yàn)證。因此,訓(xùn)練集中共有7.15萬個樣本,驗(yàn)證集中共有1.43萬個樣本。在測試集中,每種調(diào)制信號SNR為-12~2 dB,間隔為2 dB。每種調(diào)制信號在每個SNR下產(chǎn)生200個樣本,測試集中共有2.08萬個樣本。訓(xùn)練網(wǎng)絡(luò)的批量大小為32,初始學(xué)習(xí)率為1e-3,每迭代10輪,學(xué)習(xí)率衰減為原來的0.1,迭代40輪后停止訓(xùn)練,優(yōu)化器選擇Adam,損失函數(shù)為分類交叉熵。
2.2 基于Viterbi算法的SET時頻分布去噪效果分析
瞬時頻率的估計結(jié)果決定時頻圖的去噪效果。瞬時頻率估計最常用的方法是譜峰檢測法,在每個時刻下,將時頻系數(shù)矩陣中時頻系數(shù)最大值對應(yīng)的頻率作為該時刻的瞬時頻率[25]。圖7為SNR=-8 dB時EQFM信號的瞬時頻率估計結(jié)果,其中虛線表示信號的實(shí)際瞬時頻率。圖7(a)與圖7(b)中的實(shí)線分別為基于譜峰檢測法和Viterbi算法估計獲得的瞬時頻率。相對于相譜峰檢測法,Viterbi算法估計同時考慮了每個時刻下時頻系數(shù)的最大值以及相鄰時刻瞬時頻率的變化,有效減小了因噪聲引起的瞬時頻率估計誤差,保證頻率估計的準(zhǔn)確性。
均方根誤差(root mean square error, RMSE)常用來衡量觀測值與真實(shí)值之間的誤差,計算公式如下:
RMSE=1n∑ni=1(ki-k~i)2(14)
式中:ki、k~i分別為真實(shí)值、觀測值。對表2訓(xùn)練集中SNR為-8~0 dB的13種調(diào)制信號進(jìn)行瞬時頻率估計,進(jìn)一步說明瞬時頻率估計的準(zhǔn)確性。圖8為13種調(diào)制信號瞬時頻率估計值的平均RMSE??梢钥闯觯S著SNR的增大,兩種方法估計的瞬時頻率與真實(shí)頻率之間的差距越來越小。當(dāng)SNR相同時,基于Viterbi算法估計的瞬時頻率誤差比譜峰檢測法小0.8~2 MHz。
圖9分別是無噪聲、SNR=-12 dB以及采用Viterbi算法估計瞬時頻率去噪后對應(yīng)的4FSK時頻圖。通過對比發(fā)現(xiàn),4FSK原始信號受噪聲干擾嚴(yán)重,信號特征不明顯(見圖9(a))。與圖9(b)相比,圖9(c)經(jīng)過去噪處理后,去掉了大部分的背景噪聲,同時保留了較多的信號特征,有利于增強(qiáng)網(wǎng)絡(luò)在低SNR下的調(diào)制識別能力。
峰值SNR(peak SNR, PSNR)是評估圖像去噪質(zhì)量的常用指標(biāo),通過計算圖像像素最大值與噪聲引入的失真之間的比值來衡量圖像的去噪效果。PSNR越高,去噪效果越好。PSNR計算公式為
MSE=∑m-1i=0∑n-1j=0[Icolor(i,j)-Kcolor(i,j)]2mn
PSNR=10·lgMAX2IMSE(15)
式中:I和K是大小為m×n的圖像;MAXI表示像素點(diǎn)的最大值。計算表2訓(xùn)練集中SNR為-8~0 dB的13種調(diào)制信號去噪前和去噪后SET時頻圖的平均PSNR,如圖10所示??梢钥闯?,隨著SNR的增大,去噪前、后的PSNR都在上升。SNR越低,去噪后的圖像質(zhì)量提升越大。當(dāng)雷達(dá)信號的SNR=-8 dB時,去噪后時頻圖的PSNR提高9 dB。當(dāng)雷達(dá)信號的SNR=0 dB時,去噪后時頻圖的PSNR提高4 dB。
2.3 分組卷積網(wǎng)絡(luò)調(diào)制識別性能分析
圖11為基于不同時頻圖的識別精度與SNR的關(guān)系曲線,包括去噪后的SET時頻圖、含噪聲的SET時頻圖、含噪聲的CWD時頻圖以及含噪聲的SPWVD時頻圖??梢钥闯?,當(dāng)信號參數(shù)、網(wǎng)絡(luò)訓(xùn)練樣本和測試樣本數(shù)量相同時,相比于CWD和SPWVD,由于具備較好的時頻聚焦性,SET時頻曲線具有更高的清晰度以及識別精度。當(dāng)SNR=-12 dB時,去噪后的SET時頻圖識別精度相比去噪前提升了13.69%。隨著SNR的提高,噪聲對信號時頻分布的干擾越小,去噪前、后的SET時頻圖識別精度差距逐漸減小。
為了進(jìn)一步分析所提算法在低SNR下的識別性能,圖12為基于SET時頻分析方法在去噪前、去噪后的識別精度混淆矩陣(SNR=-12 dB)。從圖12(a)可以看出,去噪前時頻圖的調(diào)制方式容易被誤識別為SFM。由于SNR較低,信號時頻特征受噪聲干擾影響較大,不同調(diào)制方式之間的特征差異變小,不同調(diào)制類型的時頻圖在訓(xùn)練過程中被認(rèn)為是同一種調(diào)制類型,導(dǎo)致網(wǎng)絡(luò)擅長識別某幾種調(diào)制方式,而其他的調(diào)制方式識別精度很差。時頻圖去噪后去掉了大部分噪聲,較好地保留了信號特征,增強(qiáng)了不同調(diào)制類型的差異性,從而提高了調(diào)制信號整體的識別精度。從圖12(b)可以看出,4FSK、P3碼和EQFM在去噪后識別精度分別提高了55.2%、40.8%和28.2%。去噪后被誤識別為SFM的概率有效下降,P4碼和Baker被誤識別為SFM的概率分別下降了27.8%和26%。
為了更好地分析調(diào)制識別精度隨SNR的變化,圖13給出了基于SET的時頻分析方法在去噪后不同SNR下識別精度的混淆矩陣。當(dāng)SNR分別為-10 dB和-8 dB時,去噪后的13種調(diào)制信號的平均識別精度分別為90.26%和97.63%。隨著SNR的提升,時頻圖受噪聲影響逐漸減小,識別精度逐漸上升。與圖12(b)相比,其他調(diào)制信號被誤識別為SFM的概率下降了一個數(shù)量級。由于CW調(diào)制抗噪聲性能較差,在SNR提升后其識別精度明顯上升。2FSK與4FSK時頻圖相似,在SNR提升后,2FSK被混淆為4FSK的概率從24.2%降低至6.0%。
隨著SNR的降低,時頻圖中的信號軌跡逐漸模糊,信號的能量分布逐漸淹沒在噪聲中。根據(jù)文獻(xiàn)[2628],二維自適應(yīng)維納(two-dimensional adaptive Wiener, 2D-Wiener)濾波、前饋去噪CNN(denoising CNN, DnCNN)和卷積去噪自編碼器(convolution denoising autoencoder, CDAE)在噪聲抑制方面具有良好的性能。圖14給出了4種去噪方法的識別精度與SNR的關(guān)系曲線??梢钥闯?,當(dāng)SNR為-12 dB時,經(jīng)本文方法去噪后識別精度提高13.69%,2D-Wiener、DnCNN、CDAE這3種方法去噪后的識別精度分別提高了5.91%、5.54%、7.54%,識別精度均低于本文方法;當(dāng)SNR為-10 dB時,本文方法去噪后識別精度提高1.65%,2D-Wiener、DnCNN、CDAE這3種方法去噪后的識別精度分別提高0.038%、3.59%、4.52%,DnCNN和CDAE去噪后的識別精度優(yōu)于本文。這是由于SNR提高后,信號的能量特征變清晰,DnCNN和CDAE能較好地學(xué)習(xí)信號能量特征,從而實(shí)現(xiàn)較好的去噪效果,但是這兩種去噪網(wǎng)絡(luò)需要無噪聲或者SNR較高的時頻圖來訓(xùn)練網(wǎng)絡(luò)參數(shù),而實(shí)際環(huán)境中偵察接收機(jī)截獲的信號包含大量的噪聲,并且當(dāng)信號種類發(fā)生變化之后,去噪模型需要重新訓(xùn)練,實(shí)用性較差。本文所提方法通過估計時頻圖中信號的瞬時頻率軌跡達(dá)到去噪的效果,無需純凈的時頻圖來訓(xùn)練去噪模型,實(shí)用性較好。
同樣地,2D-Wiener濾波、DnCNN和CDAE也可用于CWD和SPWVD時頻圖的去噪。圖15為CWD、SPWVD時頻圖不同去噪方法的識別精度與SNR的關(guān)系。從圖15(a)中可以看出,當(dāng)SNR=-12 dB時,2D-Wiener、DnCNN、CDAE這3種方法去噪后CWD時頻圖識別精度分別提高5.96%、4.12%、8.27%;當(dāng)SNR=-10 dB時,CWD時頻圖去噪后的識別精度分別提高1.04%、1.85%、1.78%。從圖15(b)中可以看出,當(dāng)SNR=-12 dB時,2D-Wiener、DnCNN、CDAE這3種方法去噪后的SPWVD時頻圖識別精度分別提高6.15%、6.31%、8.19%;當(dāng)SNR=-10 dB時,SPWVD時頻圖去噪后的識別精度分別提高2.23%、3.23%、3.81%。使用這3種方法去噪后的CWD、SPWVD時頻圖的識別精度均有不同程度的提高,但是均低于本文基于SET的去噪法。這是因?yàn)樵谙嗤臈l件下,SET相對于CWD、SPWVD具有更好的時頻聚焦性,時頻圖中信號的能量軌跡也更清晰,相比之下具有更好的去噪效果。
為了更客觀地評估去噪性能和網(wǎng)絡(luò)的識別性能,分別與文獻(xiàn)[29]提出的(dilated residual network, DRN)、文獻(xiàn)[30]提出的CNN以及文獻(xiàn)[31]提出的CADE-深度CNN(deep CNN, DCNN)進(jìn)行比較,結(jié)果如圖16所示。本文網(wǎng)絡(luò)表示使用基于分組卷積的神經(jīng)網(wǎng)絡(luò)對去噪后的SET時頻圖識別效果,DRN去噪表示使用DRN對去噪后的SET時頻圖的識別結(jié)果,DRN含噪聲表示使用DRN對去噪前的SET時頻圖的識別結(jié)果??梢钥闯?,針對不同網(wǎng)絡(luò),去噪后的SET時頻圖的識別精度均有所提升。當(dāng)SNR=-12 dB時,相較于去噪前,DRN、CNN以及CADE-DCNN的識別精度分別提高11.25%、3.45%和3.18%。這3種網(wǎng)絡(luò)的識別精度均低于本文提出的分組卷積網(wǎng)絡(luò)。圖16(b)為不同網(wǎng)絡(luò)的參數(shù)量對比,CNN的參數(shù)量最多,約為1.5 M(1 M=1e6),CADE-DCNN的參數(shù)量最少,約為0.4 M。得益于分組卷積和殘差連接,本文提出的分組卷積網(wǎng)絡(luò)能夠在不損失識別精度的前提下有效減少網(wǎng)絡(luò)參數(shù)。
2.4 消融實(shí)驗(yàn)
本文使用一種基于殘差連接分組的CNN對雷達(dá)信號的時頻圖進(jìn)行識別,為了驗(yàn)證分組卷積塊參數(shù)設(shè)置對識別精度的影響,首先測試分組卷積中分組數(shù)d對整個網(wǎng)絡(luò)識別精度的影響。從表3可以看出,增大分組數(shù)d可以減少模型的參數(shù)量。當(dāng)SNR=-12 dB,d=4時,識別精度最高。這是因?yàn)楫?dāng)分組數(shù)較少時,模型參數(shù)量多,模型可以在訓(xùn)練樣本和目標(biāo)之間完美映射,但是這種映射缺乏泛化能力;當(dāng)分組數(shù)較多時,模型參數(shù)量減少,模型的映射能力減弱,識別精度下降。
圖17是不同分組數(shù)d下模型在訓(xùn)練過程中的驗(yàn)證損失??梢钥闯?,當(dāng)d=4時,模型最終的驗(yàn)證損失收斂值最低。驗(yàn)證損失越低,代表模型的泛化能力越好。圖17中不同分組下驗(yàn)證損失的收斂趨勢與表3中的識別準(zhǔn)確率變化趨勢相同。因此,最終選擇d=4作為分組卷積中的分組數(shù)。
以分組卷積塊Stage 3為例,改變Stage 3的個數(shù),網(wǎng)絡(luò)的識別精度如表4所示。當(dāng)Stage 3的個數(shù)為0時,表示網(wǎng)絡(luò)中取消第3組分組卷積塊。當(dāng)Stage 3的個數(shù)從0開始逐漸增加時,網(wǎng)絡(luò)參數(shù)量逐漸增多,SNR=-12 dB時的識別精度先上升后下降。這是因?yàn)楫?dāng)網(wǎng)絡(luò)參數(shù)逐漸增加時,網(wǎng)絡(luò)逐漸從欠擬合狀態(tài)變?yōu)檫^擬合狀態(tài)。當(dāng)Stage 3為4時,識別精度最高。
圖18為不同Stage 3取值下網(wǎng)絡(luò)的驗(yàn)證損失??梢钥闯?,當(dāng)Stage 3為4時,驗(yàn)證損失收斂值最低;當(dāng)Stage 3為6時,驗(yàn)證損失收斂值最高。圖18的驗(yàn)證損失收斂值與表4的識別精度相吻合,因此最終選擇Stage 3=4。
3 結(jié) 論
本文提出了一種基于SET分組CNN的調(diào)制識別方法,能有效解決低SNR下雷達(dá)信號調(diào)制識別準(zhǔn)確率低的問題。利用SET時頻分布獲得13種雷達(dá)信號的時頻系數(shù)矩陣,結(jié)合Viterbi算法和中值濾波提取信號的瞬時頻率并保留其鄰域的時頻系數(shù)以實(shí)現(xiàn)去噪,最后使用分組CNN對去噪圖像進(jìn)行分類識別。相比于常用的CWD和SPWVD時頻分布,SET時頻變換計算復(fù)雜度顯著降低,其計算耗時分別為CWD的27%、SPWVD的24%。所提出的Viterbi-SET時頻圖去噪算法有效提高了低SNR下時頻圖的圖像質(zhì)量,當(dāng)雷達(dá)信號的SNR=0 dB時,去噪后時頻圖的PSNR提高了9 dB?;跉埐钸B接的分組卷積網(wǎng)絡(luò)在保證識別精度的前提下減少了網(wǎng)絡(luò)參數(shù),降低了網(wǎng)絡(luò)在邊緣設(shè)備的部署難度,分組數(shù)為4的卷積參數(shù)量僅為傳統(tǒng)卷積的25%。實(shí)驗(yàn)結(jié)果表明,當(dāng)SNR=-12 dB時,去噪后的時頻圖在4種不同的網(wǎng)絡(luò)結(jié)構(gòu)中識別精度均有不同程度的提高,分別提高13.69%、11.25%、3.45%和3.18%。所提出的雷達(dá)信號調(diào)制識別方法在低SNR條件下對多種復(fù)雜調(diào)制類型的信號具有良好的識別性能。
參考文獻(xiàn)
[1] ISMAIL G U L, ISLN E. Randomized low rank and sparse decomposition based receiver search strategy for electronic support receivers[J]. IEEE Trans.on Aerospace and Electronic Systems, 202 59(2): 13921399.
[2] XU X S, BI D P, PAN J F, et al. An end-to-end deep learning approach for state recognition of multifunction radars[J]. Sensors, 202 22(13): 4980.
[3] PARK B, AHN J M. Intra-pulse modulation recognition using pulse description words and complex waveforms[C]∥Proc.of the International Conference on Information and Communication Technology Convergence, 2017: 555560.
[4] ZHU M T, LI Y J, WANG S F. Model-based time series clustering and interpulse modulation parameter estimation of multifunction radar pulse sequences[J]. IEEE Trans.on Aerospace and Electronic Systems, 202 57(6): 36733690.
[5] ZHANG X L, ZHANG J Z, LUO T Z, et al. Radar signal intrapulse modulation recognition based on a denoising-guided disentangled network[J]. Remote Sensing, 202 14(5): 1252.
[6] XU J L, SU W, ZHOU M C. Likelihood-ratio approaches to automatic modulation classification[J]. IEEE Trans.on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 2010, 41(4): 455469.
[7] HAMEED F, DOBRE O A, POPESCU D C. On the likelihood-based approach to modulation classification[J]. IEEE Trans.on Wireless Communications, 2009, 8(12): 58845892.
[8] RAMEZANI-KEBRYA A, KIM I M, KIM D I, et al. Likelihood-based modulation classification for multiple-antenna receiver[J]. IEEE Trans.on Communications, 2013, 61(9): 38163829.
[9] ZHANG J W, CABRIC D, WANG F G, et al. Cooperative modulation classification for multipath fading channels via expectation-maximization[J]. IEEE Trans.on Wireless Communications, 2017, 16(10): 66986711.
[10] 李正權(quán), 林媛, 李夢雅, 等. 基于判別式受限玻爾茲曼機(jī)的數(shù)字調(diào)制識別[J]. 通信學(xué)報, 202 42(2): 8191.
LI Z Q, LIN Y, LI M Y, et al. Digital modulation recognition based on discriminative restricted Boltzmann machine[J]. Journal on Communications, 202 42(2): 8191.
[11] RU X H, LIU Z, JIANG W L, et al. Recognition performance analysis of instaneous phase and its transformed features for radar emitter identification[J]. IET Radar, Sonar amp; Navigation, 2016, 10(5): 945952.
[12] CHENG Y Q, GUO M R, GUO L M. Radar signal recognition exploiting information geometry and support vector machine[J]. IET Signal Processing, 2023, 17(1): e12167.
[13] ASLAM M W, ZHU Z C, NANDI A K. Automatic modulation classification using combination of genetic programming and KNN[J]. IEEE Trans.on Wireless Communications, 201 11(8): 27422750.
[14] CHEN K Y, ZHU L Z, CHEN S, et al. Deep residual learning in modulation recognition of radar signals using higher-order spectral distribution[J]. Measurement, 202 185: 109945.
[15] WEI S J, QU Q Z, SU H, et al. Intra-pulse modulation radar signal recognition based on CLDN network[J]. IET Radar, Sonar amp; Navigation, 2020, 14(6): 803810.
[16] ZHU Z G, JI H B, ZHANG W B, et al. Complex convolutional neural network for signal representation and its application to radar emitter recognition[J]. IEEE Communications Letters, 2023, 27(3): 856860.
[17] YUAN S B, WU B, LI P. Intra-pulse modulation classification of radar emitter signals based on a 1-D selective kernel convolutional neural network[J]. Remote Sensing, 202 13(14): 2799.
[18] LI D J, YANG R J, LI X B, et al. Radar signal modulation recognition based on deep joint learning[J]. IEEE Access, 2020, 8: 4851548528.
[19] LIAO Y P, JIANG F, WANG J L. Intra-pulse modulation recognition of radar signals based on multi-feature random matching fusion network[J]. The Journal of Supercomputing, 2023, 79(6): 64226451.
[20] ZHANG Z F, WANG C, GAN C Q, et al. Automatic modulation classification using convolutional neural network with features fusion of SPWVD and BJD[J]. IEEE Trans.on Signal and Information Processing over Networks, 2019, 5(3): 469478.
[21] 郭立民, 寇韻涵, 陳濤, 等. 基于棧式稀疏自編碼器的低信噪比下低截獲概率雷達(dá)信號調(diào)制類型識別[J]. 電子與信息學(xué)報, 2018, 40(4): 875881.
GUO L M, KOU Y H, CHEN T, et al. Low probability of intercept radar signal recognition based on stacked sparse auto-encoder[J]. Journal of Electronics amp; Information Technology, 2018, 40(4): 875881.
[22] 邵凱, 朱苗苗, 王光宇. 基于生成對抗與卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制識別方法[J]. 系統(tǒng)工程與電子技術(shù), 202 44(3): 10361043.
SHAO K, ZHU M M, WANG G Y. Modulation recognition method based on generative adversarial and convolutional neural network[J]. Systems Engineering and Electronics, 202 44(3): 10361043.
[23] OBERLIN T, MEIGNEN S, PERRIER V. The Fourier-based synchrosqueezing transform[C]∥Proc.of the IEEE International Conference on Acoustics, Speech and Signal Processing, 2014: 315319.
[24] YU G, YU M J, XU C Y. Synchroextracting transform[J]. IEEE Trans.on Industrial Electronics, 2017, 64(10): 80428054.
[25] MAO W T, CHEN J X, LIANG X H, et al. A new online detection approach for rolling bearing incipient fault via self-adaptive deep feature matching[J]. IEEE Trans.on Instrumentation and Measurement, 2019, 69(2): 443456.
[26] SI W J, WAN C X, DENG Z A. Intra-pulse modulation recognition of dual-component radar signals based on deep convolutional neural network[J]. IEEE Communications Letters, 202 25(10): 33053309.
[27] YU H H, YAN X P, LIU S K, et al. Radar emitter multi-label recognition based on residual network[J]. Defence Technology, 202 18(3): 410417.
[28] HOU C B, FU D Y, HUA L J, et al. The recognition of multi-components signals based on semantic segmentation[J]. Wireless Networks, 2023, 29(1): 147160.
[29] 秦鑫, 黃潔, 查雄, 等. 基于擴(kuò)張殘差網(wǎng)絡(luò)的雷達(dá)輻射源信號識別[J]. 電子學(xué)報, 2020, 48(3): 456462.
QIN X, HUANG J, ZHA X, et al. Radar emitter signal recognition based on dilated residual network[J]. Acta Electronica Sinica, 2020, 48(3): 456462.
[30] QU Z Y, MAO X J, DENG Z A. Radar signal intra-pulse modulation recognition based on convolutional neural network[J]. IEEE Access, 2018, 6: 4387443884.
[31] QU Z Y, WANG W Y, HOU C B, et al. Radar signal intra-pulse modulation recognition based on convolutional denoising autoencoder and deep convolutional neural network[J]. IEEE Access, 2019, 7: 112339112347.
作者簡介
鄧志安(1985—),男,教授,博士,主要研究方向?yàn)槿斯ぶ悄堋拵盘柼幚怼?/p>
王治國(1999—),男,碩士研究生,主要研究方向?yàn)槔走_(dá)信號調(diào)制識別。
王盛鰲(1983—),男,高級工程師,碩士,主要研究方向?yàn)樾盘柼幚砼c目標(biāo)識別。
司偉建(1971—),男,研究員,博士,主要研究方向?yàn)閷拵盘柼幚怼㈦娮觽刹臁?/p>