摘 要:針對(duì)非協(xié)作通信環(huán)境中,自動(dòng)調(diào)制識(shí)別(automatic modulation recognition,AMR)在低信噪比下泛化能力有限、分類精度不高的問題,提出一種由卷積神經(jīng)網(wǎng)絡(luò)、門控循環(huán)單元和深度神經(jīng)網(wǎng)絡(luò)組成的模型—CGDNN(convolutional gated recurrent units deep neural networks)。首先對(duì)I/Q采樣信號(hào)進(jìn)行小波閾值去噪,降低噪聲對(duì)信號(hào)調(diào)制識(shí)別的影響;然后用CNN和GRU提取信號(hào)空間和時(shí)間特征;最后,通過全連接層進(jìn)行識(shí)別分類。與其他模型對(duì)比,驗(yàn)證CGDNN模型在提高AMR性能的同時(shí),顯著降低了計(jì)算復(fù)雜度。實(shí)驗(yàn)結(jié)果顯示,CGDNN模型在RML2016.10b數(shù)據(jù)集上的平均識(shí)別準(zhǔn)確率達(dá)到了64.32%,提高了-12 dB~0 dB的信號(hào)分類精度,該模型大幅減少了16QAM與64QAM的混淆程度,在18 dB時(shí)達(dá)到了93.9%的最高識(shí)別準(zhǔn)確率。CGDNN模型既提高了低信噪比下AMR的識(shí)別準(zhǔn)確率,也提高了模型訓(xùn)練的效率。
關(guān)鍵詞:自動(dòng)調(diào)制識(shí)別; 小波閾值去噪; 卷積神經(jīng)網(wǎng)絡(luò); 門控循環(huán)單元; 深度神經(jīng)網(wǎng)絡(luò)
中圖分類號(hào):TN92 文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-3695(2024)08-034-2489-07
doi:10.19734/j.issn.1001-3695.2023.11.0581
Low signal-to-noise ratio automatic modulationrecognition method based on CGDNN
Zhou Shunyonga,b, Lu Huana,b, Hu Qina,b, Peng Ziyanga,b, Zhang Hanglinga,b
(a.School of Automation & Information Engineering, b.Artificial Intelligence Key Laboratory of Sichuan Province, Sichuan University of Science &; Engineering, Yibin Sichuan 644000, China)
Abstract:To overcome AMR’s limited generalization and low classification accuracy in non-cooperative communication contexts with low signal-to-noise ratio, this paper proposed a model named CGDNN,which integrated CNN, GRU and deep neural networks. To mitigate noise impact on modulation detection, this paper initially denoised I/Q sampled signal using wavelet thresholding. Subsequently, this paper utilized CNN and GRU for extracting spatial and temporal features from signals before proceeding to classification through fully connected layers. Besides enhancing AMR performance, the CGDNN model significantly reduced computational complexity compared to competitors. Experiment results demonstrate an average recognition accuracy of 64.32% on the RML2016.10b dataset, with an enhancement in signal classification accuracy from -12 dB to 0 dB. Moreover, the model substantially decreased confusion between 16QAM and 64QAM, achieving a peak recognition accuracy of 93.9% at 18 dB. CGDNN model effectively improved AMR detection accuracy under low signal-to-noise ratio conditions and enhanced model training efficiency.
Key words:automatic modulation recognition; wavelet threshold denoising; convolutional neural networks; gated recurrent unit; deep neural network
0 引言
自動(dòng)調(diào)制識(shí)別通過對(duì)發(fā)射信號(hào)源采用的通信技術(shù)和調(diào)制方案進(jìn)行識(shí)別分類,以此分析檢測到的無線電信號(hào)并獲取相關(guān)有效信息。因此,自動(dòng)調(diào)制識(shí)別使得接收機(jī)在非合作通信場景下自動(dòng)識(shí)別信號(hào)調(diào)制方案成為可能,并廣泛應(yīng)用于軍事和民用領(lǐng)域,例如無線電頻譜檢測[1]、認(rèn)知無線電[2]和自適應(yīng)調(diào)制器。它作為信號(hào)檢測和解調(diào)之間的橋梁,能夠?qū)邮招盘?hào)調(diào)制類型進(jìn)行調(diào)制模式識(shí)別。
傳統(tǒng)的機(jī)器調(diào)制識(shí)別的方法分為基于似然(likelihood-based,LB)的方法和基于特征(feature-based,F(xiàn)B)的方法[3]。LB方法通過評(píng)估接收信號(hào)的似然函數(shù)并將似然比與預(yù)定義的閾值比較來作出決策,最大限度地減少了錯(cuò)誤分類的概率,但其計(jì)算復(fù)雜度很高[3];FB方法通過仔細(xì)選擇手工制作的特征,利用機(jī)器學(xué)習(xí)算法進(jìn)行分類,可以實(shí)現(xiàn)接近最佳的性能。這種方法可以在特定任務(wù)中取得高精度,但在一般情況下可能面臨挑戰(zhàn),因?yàn)槭謩?dòng)設(shè)計(jì)的特征無法全面反映各種現(xiàn)實(shí)世界通信信道的影響。
較早的信號(hào)調(diào)制模式識(shí)別主要采用人工識(shí)別的方法,利用相關(guān)儀器人工觀察和判斷信號(hào)的時(shí)頻域特性。但這種方法依賴于研究人員的專業(yè)知識(shí)水平和識(shí)別經(jīng)驗(yàn),無法保證調(diào)制識(shí)別的準(zhǔn)確度。尤其是在信噪比較低的情況下,存在信號(hào)與噪聲難以區(qū)分、多路徑干擾等原因,使信號(hào)的質(zhì)量下降,接收端的信號(hào)變得模糊,難以正確解調(diào)和識(shí)別。
目前,深度學(xué)習(xí)(deep learning,DL)在自然語言處理、計(jì)算機(jī)視覺和機(jī)器人[4]等各應(yīng)用領(lǐng)域取得了巨大的成功。與傳統(tǒng)方法相比,應(yīng)用在AMR方法的DL在識(shí)別精度和復(fù)雜性方面表現(xiàn)出了更高的性能。O’Shea等人[5]首次將DL應(yīng)用在AMR中,提出卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN),顯示出了CNN對(duì)復(fù)值時(shí)間無線電信號(hào)域的適應(yīng)及改進(jìn)性能,證明了CNN在低信噪比下對(duì)大型且密集編碼的時(shí)間序列進(jìn)行盲時(shí)間學(xué)習(xí)是可行的。Daldal等人[6]提出將深度長短期記憶網(wǎng)絡(luò)(long short-term memory network,LSTM)模型應(yīng)用于數(shù)字調(diào)制信號(hào)。West等人[7]應(yīng)用卷積長期短期深度神經(jīng)網(wǎng)絡(luò)(CLDNN),十分有效地提高了識(shí)別精度。Huang等人[8]通過門控循環(huán)單元(gated recurrent unit,GRU)獲取信號(hào)時(shí)間信息并擴(kuò)展信號(hào)特征維度,以得到滿意的分類性能。
近年來,DL在AMR領(lǐng)域取得了重大進(jìn)展。在高信噪比下,現(xiàn)有的AMR模型獲取了高識(shí)別精度,在AMR模型之前應(yīng)用信號(hào)去噪算法是提高AMR性能的方法之一[9],但信道環(huán)境的復(fù)雜性和多種噪聲特性使得AMR在低信噪比下分類精度很難提高,導(dǎo)致了低信噪比下的調(diào)制識(shí)別充滿挑戰(zhàn)。因此,本文提出了一種結(jié)合小波變換和DL的CNN、GRU及DNN(deep neural network)組成AMR模型,來通過基于小波變換的自適應(yīng)閾值實(shí)現(xiàn)對(duì)輸入信號(hào)的去噪,再使用CGDNN對(duì)調(diào)制信號(hào)進(jìn)行識(shí)別,顯著提高低信噪比下的識(shí)別準(zhǔn)確性。
1 信號(hào)模型與小波去噪
1.1 信號(hào)模型
無線通信系統(tǒng)一般包括發(fā)射機(jī)、信道和接收機(jī),如圖1所示。本文考慮的是單輸入單輸出通信系統(tǒng)(SISO),接收信號(hào)r(t)表示為
r(t)=s(t)c(t)+n(t)(1)
其中:s(t)表示發(fā)射信號(hào);表示卷積運(yùn)算;c(t)是發(fā)射無線信道的時(shí)變脈沖響應(yīng),如式(2)所示;n(t)表示信道干擾,指均值為零的加性高斯白噪聲(AWGN)。
c(t)=aδ(t-τ)(2)
其中:a是信號(hào)幅度;δ表示脈沖函數(shù);t是時(shí)間間隔;τ表示信道多徑延遲。
模數(shù)轉(zhuǎn)換器以fs=1/Ts的速率對(duì)接收信號(hào)r(t)進(jìn)行n次采樣,生成離散時(shí)間觀測信號(hào)r(n)。離散信號(hào)r(n)分解為同相分量rI(n)和正交分量rQ(n),信號(hào)表示為
r(n)=rI(n)+j×rQ(n)(3)
其中:j表示虛數(shù)單位,即j2=-1。
式(4)描述了現(xiàn)實(shí)世界中真實(shí)環(huán)境的各種因素,表示為
r(t)=ejnLo(t)∫τ0τ=0(s(nClk(t-τ))h(τ)+nAdd(t))dt(4)
其中:nLo是殘余載波隨機(jī)游走過程;nClk是隨機(jī)游走重采樣;h(t-τ)表示時(shí)間相關(guān)的非恒定信道脈沖響應(yīng);nAdd(t)是可能添加的噪聲,包括AWGN或其他噪聲[5]。
接收信號(hào)r(t)在AMR中通常處理為IQ分量來表達(dá)信號(hào),IQ分量表示為
I=A cos φQ=A sin φ(5)
其中:A表示接收信號(hào)r(t)是瞬時(shí)幅度;φ是相位。
自動(dòng)調(diào)制識(shí)別對(duì)接受到的無線通信信號(hào)的調(diào)制方式進(jìn)行分類,本質(zhì)上是一個(gè)多分類任務(wù)[10]。調(diào)制分類主要是識(shí)別接收信號(hào)的特征信息并確定其調(diào)制類型。調(diào)制識(shí)別算法一般是根據(jù)設(shè)定模型的速度和識(shí)別準(zhǔn)確性來評(píng)估的。現(xiàn)有的AMR方法一般是在高信噪比的條件下實(shí)現(xiàn)高精度,但這與現(xiàn)實(shí)環(huán)境不符。在低信號(hào)電平下,基于深度學(xué)習(xí)的AMR會(huì)因?yàn)楦鞣N背景噪聲而大大增加對(duì)調(diào)制分類的難度,例如頻率選擇性衰落、本地振蕩器偏移、多普勒偏移、加性高斯白噪聲、脈沖噪聲、同信道干擾等。因此,對(duì)低信噪比下的調(diào)制識(shí)別分類是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。本文為了提升低信噪比下的準(zhǔn)確性,使其更加接近現(xiàn)實(shí)環(huán)境,在原始信號(hào)中加入小波域去噪,從而降低噪聲對(duì)調(diào)制分類的影響。
1.2 小波去噪
Donoho[11]提出小波閾值去噪算法,通過選定的閾值函數(shù)修改信號(hào)的小波分解系數(shù)來消除信號(hào)噪聲。原始信號(hào)經(jīng)過小波分解,能量分布在少數(shù)小波系數(shù)上,這些小波系數(shù)顯著地分布在各個(gè)分解尺度上[12]。然后對(duì)小波變換后的小波系數(shù)進(jìn)行變換,選擇軟閾值去噪算法,通過自適應(yīng)地選擇閾值函數(shù)對(duì)信號(hào)進(jìn)行去噪。最后對(duì)處理后的小波系數(shù)進(jìn)行小波逆變換,重新合成去噪后的信號(hào)。算法流程如圖2所示。
考慮一個(gè)信號(hào)xi,含高斯隨機(jī)噪聲zi~N(0,σ2),其噪聲信號(hào)表示為
yi=xi+zi i=0,1,…,N-1(6)
在噪聲信號(hào)yi中,找到原始信號(hào)xi的近似值i,從而最小化均方誤差。
‖x-‖1N∑N-1i=0xi-i2(7)
其中:x=[x0…xN-1]T及=[0…N-1]T。令W表示正交小波變換,式(6)可以寫成
dj=cj+εj(8)
那么d=Wy,c=Wx及ε=Wz?;谛〔ㄩ撝等ピ氲倪^程表示為
u=Wy=D(u,λ)=W-1()(9)
小波變換可以通過多尺度變換在時(shí)域和頻域上顯示信號(hào)的特征,連續(xù)小波變換W方程表示為
WT(a,τ)=1a∫∞-∞f(t)·ψ(t-τa)dt(10)
其中:a為尺度參數(shù),控制小波函數(shù)的縮放;τ為平移參數(shù),反映了某一時(shí)刻的信號(hào)信息;f(t)為原始信號(hào)。
離散小波變換是將連續(xù)小波變換離散化,從而找到相互正交的基函數(shù),通過離散小波變換,將原始信號(hào)分解為低頻分量和高頻分量兩個(gè)部分。通過低通濾波器的信號(hào)系數(shù)稱為近似分量,而高通濾波器的系數(shù)稱為細(xì)節(jié)分量。近似分量包含原始信號(hào)的大部分能量,對(duì)細(xì)節(jié)分量進(jìn)行閾值處理可以減少信號(hào)中的噪聲,通過逐層分解,以獲取不同尺度上的信號(hào)。因子a對(duì)信號(hào)進(jìn)行采樣,對(duì)應(yīng)相應(yīng)尺度變化。離散小波變換方程表示為
f(x)=1N[Tφ(0,0)φ0,0(x)+∑J-1j=0∑2j-1k=0Tψ(j,k)ψj,k(x)](11)
其中:Tφ(0,0)和Tψ(j,k)分別表示近似系數(shù)和細(xì)節(jié)系數(shù),表示為
Tφ(0,0)=〈f(x),φ0,0(x)〉=1N∑N-1x=0f(x)φ(x)(12)
Tψ (j,k)=〈f(x),ψj,k (x)〉=1N∑N-1x=0f(x)ψ*j,k (x)(13)
通過小波變換得到含噪信號(hào)y的小波系數(shù)u,考慮到多貝西小波(Daubechies wavelet)主要應(yīng)用在離散型的小波轉(zhuǎn)換,其不但可以去除信號(hào)噪聲,并且該小波作為稀疏基引入的光滑誤差不易被察覺,使得小波重構(gòu)過程中得到的信號(hào)比較光滑。因此小波基函數(shù)選擇“Db6”,即小波階數(shù)為6的緊支集正交小波,然后通過正交小波進(jìn)行非線性去噪運(yùn)算得到去噪后的小波系數(shù),λ表示閾值,根據(jù)自適應(yīng)的閾值應(yīng)用于小波系數(shù)上,再將其傳遞給閾值函數(shù)。最后進(jìn)行小波逆變換W-1獲得估計(jì)值。
選擇合適的閾值函數(shù)和閾值大小是小波閾值去噪的關(guān)鍵問題。小波閾值函數(shù)最常見的是硬閾值函數(shù)和軟閾值函數(shù)。硬閾值通過比較小波系數(shù)的絕對(duì)值與一個(gè)給定的閾值,將小于閾值的系數(shù)置零,而將大于閾值的系數(shù)保持不變,但這意味著硬閾值去噪完全消除了那些被認(rèn)為是噪聲的小波系數(shù),而保留了那些被認(rèn)為是信號(hào)的系數(shù),這可能會(huì)導(dǎo)致信號(hào)在去噪后出現(xiàn)較多失真,從而丟失一些信息;軟閾值函數(shù)在硬閾值的基礎(chǔ)上引入平滑過渡,對(duì)于小于閾值的系數(shù),軟閾值去噪將其減小到零,并對(duì)大于閾值的系數(shù)進(jìn)行縮放,這樣可以更好地保留信號(hào)的主要特征并減少失真,得到整體連續(xù)性較好的小波系數(shù)[13]。因此,本文選擇軟閾值函數(shù)進(jìn)行去噪,其表達(dá)式為
uλ=[sign(u)](u-λ) u≥λ
0 u<λ(14)
其中:sign為符號(hào)函數(shù);u是小波系數(shù)的值;uλ是小波系數(shù)設(shè)定的閾值。實(shí)驗(yàn)采用自適應(yīng)閾值的方法,其工作機(jī)制是根據(jù)不同信噪比調(diào)整閾值大小,并通過不同的噪聲效應(yīng)來選擇閾值。當(dāng)信號(hào)相對(duì)較強(qiáng)時(shí),選擇的閾值較小,以保留更多細(xì)節(jié);當(dāng)信號(hào)較弱時(shí),閾值選擇較大,以減小噪聲的影響。將設(shè)定的小波閾值去噪算法運(yùn)用在各種調(diào)制信號(hào)上以消除其噪聲的影響,圖3展示了不同調(diào)制信號(hào)在信噪比為-2 dB條件下原始信號(hào)示例與去噪之后的效果。
2 AMR模型
本文提出了一種基于DL的AMR網(wǎng)絡(luò)模型—CGDNN,由卷積神經(jīng)網(wǎng)絡(luò)、門控循環(huán)單元及全連接深度神經(jīng)網(wǎng)絡(luò)組成。首先通過flatten層和dense層組成的神經(jīng)網(wǎng)絡(luò)對(duì)I/Q樣本進(jìn)行參數(shù)估計(jì)得到相位參數(shù),并利用lambda層和multiply層對(duì)參數(shù)進(jìn)行變換得到輸出。然后將變換后的參數(shù)數(shù)據(jù)作為CGDNN的輸入,具有64個(gè)濾波器的CNN對(duì)信號(hào)I/Q序列進(jìn)行空間特征提取,128個(gè)單元的GRU對(duì)信號(hào)I/Q序列進(jìn)行時(shí)間特征提取,最后分類由dense層完成,其隱藏神經(jīng)元數(shù)量與調(diào)制方式數(shù)量一致。CGDNN結(jié)構(gòu)框架如圖4所示。
2.1 參數(shù)估計(jì)與變換
在前面信號(hào)模型中所提到的采樣I/Q樣本受各種通道噪聲干擾,以及不完善的硬件條件的影響,這些都可能會(huì)導(dǎo)致接收信號(hào)的時(shí)間移位、線性混合和旋轉(zhuǎn)[14]。為了降低這些不利因素的影響,在文獻(xiàn)[14]的啟發(fā)下,通過對(duì)I/Q信號(hào)數(shù)據(jù)進(jìn)行參數(shù)估計(jì)和參數(shù)變換以提取相位偏移信息,并對(duì)相位參數(shù)進(jìn)行變換,調(diào)整信號(hào)的特征使問題變得更簡單。在選擇性地去除或減弱不必要部分的同時(shí)突出信號(hào)特征,使其更容易分析,以此提高調(diào)制識(shí)別準(zhǔn)確率。
flatten層對(duì)輸入信號(hào)尺寸為2×128的I/Q樣本展平為一維張量,來滿足dense層的輸入維度,dense層對(duì)張量中的數(shù)據(jù)進(jìn)行相關(guān)線性變換以得到相位參數(shù)。通過自定義層進(jìn)行參數(shù)變換,應(yīng)用lambda層對(duì)得到的相位參數(shù)調(diào)用函數(shù)計(jì)算其余弦值和正弦值,multiply層對(duì)輸入信號(hào)和之前所得的余弦和正弦進(jìn)行逐元素相乘,再利用add層和subtract層對(duì)相乘的結(jié)果進(jìn)行逐元素相加和相減,將所得結(jié)果連接并打印為張量作為CGDNN結(jié)構(gòu)的輸入。
2.2 卷積神經(jīng)網(wǎng)絡(luò)
CNN作為一種前饋神經(jīng)網(wǎng)絡(luò),由多層神經(jīng)網(wǎng)絡(luò)組成,其神經(jīng)元可以響應(yīng)周圍單元的部分覆蓋,在局部特征提取方面具有明顯的優(yōu)勢。CNN主要由卷積層和池化層等結(jié)構(gòu)組成。卷積層作為CNN的基本組成,使用卷積濾波器從輸入數(shù)據(jù)中提取信號(hào)空間特征,其目的是學(xué)習(xí)特征并與可學(xué)習(xí)內(nèi)核進(jìn)行卷積,卷積運(yùn)算可以表示為
X(i,j)=∑m∑nx(m+i,n+i)ω(m,n)+b(15)
其中:X(i,j)表示卷積輸出;x是輸入矩陣;ω是大小為m×n的權(quán)重矩陣;b為偏置。
在實(shí)驗(yàn)中提出的CGDNN模型,一共包含兩個(gè)卷積模塊,即Conv2D(64)和Conv2D(15)。第一個(gè)卷積模塊對(duì)應(yīng)組成為64個(gè)2×8卷積核,以提取信息的空間特征,且使用零填充,使輸入和輸出的特征圖大小相同。第二個(gè)卷積模塊由15個(gè)1×5的卷積核構(gòu)成,以進(jìn)一步壓縮提取的特征,同樣使用零填充,保持其特征圖高度不變,對(duì)其卷積層的輸出進(jìn)行批量歸一化處理。兩個(gè)卷積模塊都使用了修正線性單元激活函數(shù)ReLU,通過引入非線性變換,增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力。批量歸一化層(batch normalization,BN)對(duì)每個(gè)批次的特征進(jìn)行歸一化處理,減少了內(nèi)部協(xié)變量偏移,在訓(xùn)練期間不斷改變特征分布,提高了網(wǎng)絡(luò)模型的泛化能力。在第一個(gè)卷積模塊中加入的最大池化層減小了特征圖的空間大小,將每個(gè)區(qū)域中最顯著特征提取出來,同時(shí)減少了模型參數(shù)數(shù)量。
2.3 門控循環(huán)單元
GRU是循環(huán)神經(jīng)網(wǎng)絡(luò)中一種改進(jìn)結(jié)構(gòu),通過引入“門”機(jī)制和記憶單元,檢測調(diào)制信號(hào)序列內(nèi)的時(shí)間變化,具有學(xué)習(xí)長期依賴關(guān)系的能力。其基本結(jié)構(gòu)如圖5所示。
圖中各種分量的計(jì)算式表示為
更新門:zt=σ(Wzxt+Rzht-1+bz)(16)
重置門:rt=σ(Wrxt+Rrht-1+br)(17)
隱藏狀態(tài):t=tanh(Whxt+Rh(rtht-1)+bh)(18)
輸出門:ht=(1-zt)ht-1+ztt(19)
其中:σ表示信號(hào)激活函數(shù);矩陣W、R和b分別是輸入權(quán)重、循環(huán)權(quán)重和每個(gè)分量的偏差的集合。其中更新門可以更新信息和隱藏層的狀態(tài),在保證網(wǎng)絡(luò)精度的同時(shí)減少了網(wǎng)絡(luò)參數(shù)。
實(shí)驗(yàn)設(shè)計(jì)的GRU層提取128個(gè)單元的信號(hào)時(shí)間特征,GRU作為序列模型循環(huán)神經(jīng)網(wǎng)絡(luò)的一種變體,能夠有效地提取序列數(shù)據(jù)的時(shí)間相關(guān)性特征,具有抵抗梯度爆炸和消失的優(yōu)點(diǎn)。在模型中,對(duì)GRU層的輸出進(jìn)行批量歸一化后提高模型穩(wěn)定性,再利用全局平均池化層將時(shí)間序列維度降至1,通過減少特征圖的維度,從而減少了模型的參數(shù)數(shù)量,降低了計(jì)算成本。同時(shí)應(yīng)用了非線性激活函數(shù)—高斯誤差線性單元GELU,允許網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜的非線性關(guān)系。
2.4 全連接層
CGDNN模型的分類層由dense層和softmax組成,通過dense層完成調(diào)制信號(hào)的分類識(shí)別,其激活函數(shù)設(shè)置為softmax,將輸出轉(zhuǎn)換為類別的概率分布。dense層實(shí)際是一個(gè)卷積層,主要利用卷積核和偏置的初始化以提高網(wǎng)絡(luò)的性能和收斂效果,對(duì)其進(jìn)行正則化處理防止過擬合,從而更好地適應(yīng)訓(xùn)練數(shù)據(jù)。其中使用偏置的作用是增加模型的靈活性,同時(shí)也增加dense層每個(gè)神經(jīng)元的可學(xué)習(xí)參數(shù)數(shù)量,以提高模型的表達(dá)能力。
算法1為基于深度學(xué)習(xí)的AMR算法的偽代碼實(shí)現(xiàn)過程。其輸入為張量形狀大小2×128的信號(hào)I/Q樣本,輸出為調(diào)制識(shí)別的分類結(jié)果。首先對(duì)輸入數(shù)據(jù)進(jìn)行參數(shù)估計(jì)與參數(shù)變換來突出信號(hào)特征,同時(shí),定義了兩個(gè)卷積模塊和GRU網(wǎng)絡(luò)層,分別用以提取信號(hào)的空間特征和時(shí)間特征,最后通過dense層完成調(diào)制分類。
算法1 基于深度學(xué)習(xí)AMR算法
輸入:主輸入張量形狀大小為2×128,附加輸入張量形狀大小為1×128。
輸出:分類結(jié)果。
# 輸入?yún)?shù)估計(jì)
x1=Flatten() //I/Q信號(hào)樣本展平為一維張量
x1=Dense(activation="linear") //進(jìn)行線性變換得到相位參數(shù)
# 參數(shù)變換
cos1=Lambda(cos)(x1)
sin1=Lambda(sin)(x1) //計(jì)算余弦和正弦值
x11=逐元素乘法操作(input1, cos1)
x12=逐元素乘法操作(input2, sin1)
x21=逐元素乘法操作(input2, cos1)
x22=逐元素乘法操作(input1, sin1) /*分別對(duì)兩個(gè)維度應(yīng)用余弦和正弦變換*/
y1=Add(x11, x12)
y2=Subtract(x21, x22)
x33=Concatenate(y1, y2) //拼接
define block1: //提取空間特征
XCV=Conv2D(x)
XBN=BatchNorm(XCV)
Xmax=MaxPool2D(XBN)
end define
define block2: //提取空間特征
XCV=Conv2D(Xmax)
XBN=BatchNorm(XCV)
return XBN
end define
define GRU: //提取時(shí)間特征
XGRU=CuDNNGRU(x)
XBN=BatchNorm(XGRU)
XGELU=GELU(XBN)
return XGELU
end define
begin:
step1:
輸入?yún)?shù)估計(jì)
step2:
x3=Block1(x33)
x3=Block2(x3)
step3:
x4=GRU(x3)
step4:
x5=Dense(x4)
return x5 //輸出分類結(jié)果
end
2.5 激活函數(shù)
激活函數(shù)能夠提高網(wǎng)絡(luò)的非線性能力,表1提供了網(wǎng)絡(luò)模型中所用的激活函數(shù),如線性單元ReLU、高斯誤差線性單元GELU和softmax。在CNN結(jié)構(gòu)中使用了整流線性激活函數(shù)ReLU,以加快收斂速度。該激活函數(shù)能解決網(wǎng)絡(luò)中梯度消失的問題,從而極大地提高網(wǎng)絡(luò)的正確性。該函數(shù)是一個(gè)分段線性函數(shù),只保留正數(shù)部分,其具有一個(gè)理想特性,即在經(jīng)過ReLU激活后表現(xiàn)為稀疏狀態(tài),其優(yōu)越性能就來源于這種稀疏性[15]。ReLU函數(shù)產(chǎn)生的負(fù)值會(huì)被稀疏,并且這種稀疏性呈動(dòng)態(tài)變化趨勢。在進(jìn)行梯度訓(xùn)練時(shí),網(wǎng)絡(luò)會(huì)通過自動(dòng)調(diào)節(jié)稀疏比率,以確保激活數(shù)據(jù)中存在合理數(shù)量的非零值。這樣的處理將復(fù)雜特征轉(zhuǎn)換為稀疏特征,從而使這一部分特征更具有魯棒性。
GELU作為一種基于高斯誤差函數(shù)的激活函數(shù),相較于激活函數(shù)ReLU更加平滑,在梯度傳播中也更加穩(wěn)定,因此更容易收斂于訓(xùn)練過程。其引入的非線性變換使得網(wǎng)絡(luò)能學(xué)習(xí)更復(fù)雜的映射,從而能夠更好地提高訓(xùn)練性能。GELU通過非線性輸入進(jìn)行加權(quán),而ReLU對(duì)輸入進(jìn)行門控[16]。這里的兩種激活函數(shù)都很少出現(xiàn)梯度消失的現(xiàn)象,因此,能更好地支持深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化。softmax激活函數(shù)將上一層的數(shù)據(jù)進(jìn)行歸一化,對(duì)其進(jìn)行多分類的目標(biāo)預(yù)測,使得模型在訓(xùn)練過程中學(xué)習(xí)適當(dāng)?shù)臋?quán)重。
2.6 模型復(fù)雜度
通過計(jì)算神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的參數(shù)總數(shù)來衡量模型復(fù)雜度。模型總參數(shù)量為63 958,模型參數(shù)會(huì)影響模型的內(nèi)存使用情況,也決定了模型的大小。表2提供了構(gòu)建網(wǎng)絡(luò)模型的參數(shù)和詳細(xì)結(jié)構(gòu)。
對(duì)于模型的復(fù)雜度,需要平衡濾波器數(shù)量和網(wǎng)絡(luò)深度以達(dá)到最佳性能。在保持網(wǎng)絡(luò)訓(xùn)練結(jié)果的同時(shí),通過增加網(wǎng)絡(luò)的寬度和深度,可以有效提高網(wǎng)絡(luò)質(zhì)量。網(wǎng)絡(luò)模型的計(jì)算量可以通過調(diào)整卷積層中的卷積核數(shù)量和大小來降低。特別是在模型計(jì)算方面,較大空間濾波器的卷積往往會(huì)導(dǎo)致昂貴的計(jì)算成本。
在具體實(shí)現(xiàn)中,第一個(gè)卷積層采用64個(gè)大小為2×8的卷積核,雖然選擇的卷積核相對(duì)較大,但通過更多的參數(shù),使得模型能夠?qū)W習(xí)到更多更復(fù)雜的特征。而第二個(gè)卷積層的卷積核大小為1×5,參數(shù)減少到原來的5/16,同時(shí)也壓縮了卷積核數(shù)量,這種設(shè)計(jì)在進(jìn)一步提取特征的同時(shí)減小了特征圖數(shù)量,從而有效降低了模型的計(jì)算量,提高了網(wǎng)絡(luò)訓(xùn)練的高效性。這種平衡和調(diào)整確保模型在性能和計(jì)算效率之間取得最佳平衡。
3 實(shí)驗(yàn)與討論
3.1 實(shí)驗(yàn)數(shù)據(jù)集
仿真實(shí)驗(yàn)在RML2016.10b[17]數(shù)據(jù)集上進(jìn)行,其數(shù)據(jù)輸入維度為2×128。它包含1 200 000個(gè)信號(hào),具有十種調(diào)制類型方式,包括八種數(shù)字信號(hào)BPSK、QPSK、8PSK、16-QAM、64-QAM、CPFSK、GFSK、4PAM和兩種模擬信號(hào)WBFM、AM-DSB,每個(gè)數(shù)據(jù)樣本由128個(gè)采樣IQ樣本點(diǎn)組成,其中每個(gè)復(fù)雜時(shí)間樣本的實(shí)部和虛部是分開的。RML2016.10b數(shù)據(jù)集是使用GNU無線電動(dòng)態(tài)信道模型分層塊構(gòu)建的,其中包括采樣率偏移、中心頻率偏移、選擇性衰落和加性高斯白噪聲等阻礙效應(yīng)。每個(gè)調(diào)制信號(hào)有信噪比為-20~18 dB,增量為2 dB。將實(shí)驗(yàn)數(shù)據(jù)集按6∶2∶2隨機(jī)選擇為訓(xùn)練集、驗(yàn)證集和測試集。損失函數(shù)是分類交叉熵,優(yōu)化器為Adam,網(wǎng)絡(luò)訓(xùn)練的批量大?。╞atch size)為1 024,訓(xùn)練輪數(shù)(epoch)為1 000。實(shí)驗(yàn)設(shè)置若驗(yàn)證損失在50個(gè)epochs內(nèi)未減少,則停止訓(xùn)練過程。
3.2 仿真環(huán)境設(shè)置
仿真環(huán)境設(shè)置如表3所示。
3.3 實(shí)驗(yàn)結(jié)果
圖6表示了在不同SNR下每類調(diào)制信號(hào)的分類識(shí)別準(zhǔn)確率。從圖中可以得知,不同調(diào)制信號(hào)在相同信噪比下性能有所不同。在信噪比較低時(shí),AM-DSB的識(shí)別精度明顯高于其他調(diào)制方式。在-4 dB時(shí)PAM4、QAM64、GFSK三種調(diào)制方式就達(dá)到90%以上,PAM4甚至達(dá)到了98%。0 dB下除WBFM,其他調(diào)制信號(hào)的識(shí)別精度均達(dá)到90%以上,隨著信噪比的增加,識(shí)別精度逐漸平穩(wěn)并趨于100%。
如圖7所示,實(shí)驗(yàn)將本文的算法結(jié)構(gòu)與其他幾種算法進(jìn)行了比較。對(duì)比實(shí)驗(yàn)選擇CNN1[5]、IC-AMCNet[18]、MCLDNN[19]、CGDNet[20]、ResNet[21]、MCNET[22]。從圖中不同網(wǎng)絡(luò)結(jié)構(gòu)的分類準(zhǔn)確率可以明顯看出,其準(zhǔn)確率隨著信噪比的增加而增加并逐漸趨于穩(wěn)定。CGDNN結(jié)構(gòu)的分類識(shí)別準(zhǔn)確率整體均高于其他網(wǎng)絡(luò)結(jié)構(gòu),在SNR為18 dB時(shí),最大識(shí)別準(zhǔn)確率可達(dá)93.9%,在所有對(duì)比模型中表現(xiàn)最好。在-18~-8 dB的低信噪比條件下,CGDNN結(jié)構(gòu)的識(shí)別準(zhǔn)確率明顯優(yōu)于其他網(wǎng)絡(luò),這也驗(yàn)證了小波閾值去噪方法的有效性,在低信噪比情況下對(duì)調(diào)制信號(hào)的分類識(shí)別得到了提升。在評(píng)估CGDNN性能方面,除分析其平均識(shí)別準(zhǔn)確率之外,還可根據(jù)計(jì)算復(fù)雜度來分析評(píng)估,計(jì)算復(fù)雜度包括學(xué)習(xí)參數(shù)數(shù)量、訓(xùn)練時(shí)間等元素。
如表4所示,可以了解到CGDNN模型參數(shù)數(shù)量在遠(yuǎn)小于其他網(wǎng)絡(luò)模型的情況下,平均識(shí)別準(zhǔn)確率得到了不同程度的提升。盡管CGDNN模型訓(xùn)練時(shí)間大于CNN1、IC-AMCNet和CGDNet,但隨著參數(shù)數(shù)量大幅減少且識(shí)別準(zhǔn)確率的提高,CGDNN訓(xùn)練時(shí)間是可以接受的。與MCLDNN基準(zhǔn)高精度模型相比,在降低模型計(jì)算復(fù)雜度和訓(xùn)練時(shí)間的同時(shí)提高了識(shí)別精度。
3.4 去噪效果分析
表5比較了-12 dB、-10 dB、-8 dB、-6 dB、-4 dB、-2 dB和0 dB下不同模型的調(diào)制識(shí)別結(jié)果。可以看出,CGDNN與除MCLDNN的其他模型在低信噪比下最大依次增加了6.8%、7.42%、5.47%、6.51%、7.66%、7.96%。在0 dB時(shí)識(shí)別精度小于MCLDNN模型0.27%,但CGDNN架構(gòu)在低信噪比下整體表現(xiàn)比MCLDNN更好。根據(jù)實(shí)驗(yàn)所得結(jié)果,低信噪比下的識(shí)別準(zhǔn)確率有了一定幅度的提高,也說明了提出的小波閾值去噪方法對(duì)調(diào)制信號(hào)的去噪有較好的效果。
圖8顯示了信噪比為-4 dB條件下,不同網(wǎng)絡(luò)模型的混淆矩陣?;煜仃嚤硎静煌{(diào)制格式的錯(cuò)誤分類,預(yù)測精度越高,對(duì)角線上的結(jié)果越高,對(duì)應(yīng)的藍(lán)色也會(huì)越深(參見電子版),顯示了預(yù)測標(biāo)簽與實(shí)際標(biāo)簽的一致程度。因?yàn)锳M-DSB和WBFM都有一個(gè)靜默期,在靜默期間信號(hào)幾乎為零,網(wǎng)絡(luò)只能對(duì)無效的信號(hào)進(jìn)行隨機(jī)分類,所以從圖中可以看出,調(diào)制格式的錯(cuò)誤分類主要在AM-DSB和WBFM之間。CGDNN對(duì)這兩類調(diào)制格式的預(yù)測精度是明顯優(yōu)于ResNet和IC-AMCNet模型的。CGDNN在低信噪比下相比其他模型提升了大多數(shù)調(diào)制格式的分類性能。例如,BPSK、CPFSK和GFSK的識(shí)別準(zhǔn)確率分別為85%、90%和91%,與其他六種模型分類性能相比最大提高了13%。除此之外,16QAM與64QAM也很容易混淆,因?yàn)槠湔{(diào)制類型非常相似,在進(jìn)行分類識(shí)別時(shí)很難區(qū)分。在對(duì)I/Q樣本進(jìn)行小波閾值去噪之后減小了對(duì)調(diào)制類型的噪聲影響,CGDNN模型準(zhǔn)確識(shí)別了70%的16QAM與91%的64QAM,兩者之間的混淆顯著減少,超過了其他模型對(duì)這兩種調(diào)制類型的識(shí)別能力。
4 結(jié)束語
為了解決低信噪比下自動(dòng)調(diào)制識(shí)別準(zhǔn)確率的問題,本文先對(duì)數(shù)據(jù)進(jìn)行小波閾值去噪,通過利用軟閾值函數(shù)進(jìn)行自適應(yīng)閾值調(diào)整,消除對(duì)采樣的I/Q數(shù)據(jù)樣本的噪聲影響,從而降低在低信噪比下噪聲對(duì)調(diào)制格式識(shí)別的阻礙。然后,使用CGDNN對(duì)去噪后的調(diào)制信號(hào)進(jìn)行識(shí)別。該網(wǎng)絡(luò)由CNN、GRU和DNN組成。CNN和GRU分別提取信號(hào)的空間特征和時(shí)間特征,最后由DNN對(duì)提取特征后的調(diào)制信號(hào)進(jìn)行分類。通過這種方法,實(shí)現(xiàn)了高精度分類性能,提高了低SNR情況下的自動(dòng)調(diào)制識(shí)別準(zhǔn)確率。從RML2016.10b數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果來看,實(shí)現(xiàn)了高精度分類識(shí)別,最高識(shí)別準(zhǔn)確率達(dá)到了93.9%,在低信噪比下,信噪比為-12~0 dB時(shí)的自動(dòng)調(diào)制識(shí)別準(zhǔn)確率提升為0.36%~8.44%,同時(shí)也大大降低了計(jì)算復(fù)雜度和訓(xùn)練時(shí)間。未來計(jì)劃繼續(xù)在現(xiàn)有模型基礎(chǔ)上融合更多特征,以進(jìn)一步提高各種調(diào)制類型在低信噪比下的分類性能。
參考文獻(xiàn):
[1]Ji Mingrui, Huang Chenzhao, Luo Ruisen. Automatic modulation recognition based on spatio-temporal features fusion[C]//Proc of the 12th IEEE International Conference on Electronics Information and Emergency Communication. Piscataway, NJ: IEEE Press, 2022: 89-93.
[2]Zhang Fuxin, Luo Chunbo, Xu Jialang, et al. An autoencoder-based I/Q channel interaction enhancement method for automatic modulation recognition[J]. IEEE Trans on Vehicular Technology, 2023, 72(7): 9620-9625.
[3]周宇航, 侯進(jìn), 李嘉新, 等. 基于頻域疊加和深度學(xué)習(xí)的頻譜信號(hào)識(shí)別[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(3): 874-879. (Zhou Yuhang, Hou Jin, Li Jiaxin, et al. Spectrum signal identification based on frequency-domain superposition and deep learning[J]. Application Research of Computers, 2023, 40(3): 874-879.)
[4]Tunze G B, Huynh-The T, Lee J M, et al. Sparsely connected CNN for efficient automatic modulation recognition[J]. IEEE Trans on Vehicular Technology, 2020,69(12): 15557-15568.
[5]O’Shea T J, Corgan J, Clancy T C. Convolutional radio modulation recognition networks[C]//Proc of the 17th International Conference on Engineering Applications of Neural Networks. Cham: Springer, 2016: 213-226.
[6]Daldal N, Yldrm , Polat K. Deep long short-term memory networks-based automatic recognition of six different digital modulation types under varying noise conditions[J]. Neural Computing and Applications, 2019, 31: 1967-1981.
[7]West N E, O’shea T. Deep architectures for modulation recognition[C]//Proc of IEEE International Symposium on Dynamic Spectrum Access Networks. Piscataway, NJ: IEEE Press, 2017: 1-6.
[8]Huang Sai, Dai Rui, Huang Juanjuan, et al. Automatic modulation classification using gated recurrent residual network[J]. IEEE Internet of Things Journal, 2020, 7(8): 7795-7807.
[9]Rodzin S, Bova V, Kravchenko Y, et al. Deep learning techniques for natural language processing[M]//Artificial Intelligence Trends in Systems. Cham: Springer, 2022: 121-130.
[10]Gao Yan, Ma Shengyu, Shi Jian, et al. An optimised multi-channel neural network model based on CLDNN for automatic modulation recognition[J]. International Journal of Wireless and Mobile Computing, 2023, 24(2): 144-158.
[11]Donoho D L. De-noising by soft-thresholding[J]. IEEE Trans on Information Theory, 1995, 41(3): 613-627.
[12]Halidou A, Mohamadou Y, Ari A A A, et al. Review of wavelet denoising algorithms[J]. Multimedia Tools and Applications, 2023, 82: 1-31.
[13]吳光文, 王昌明, 包建東, 等. 基于自適應(yīng)閾值函數(shù)的小波閾值去噪方法[J]. 電子與信息學(xué)報(bào), 2014, 36(6): 1340-1347. (Wu Guangwen, Wang Changming, Bao Jiandong, et al. Wavelet threshold denoising method based on adaptive threshold function[J]. Journal of Electronics and Information, 2014, 36(6): 1340-1347.)
[14]Zhang Fuxin, Luo Cunbo, Xu Jialang, et al. An efficient deep lear-ning model for automatic modulation recognition based on parameter estimation and transformation[J]. IEEE Communications Letters, 2021, 25(10): 3287-3290.
[15]Liu Xingyu, Zhen Zonglei, Liu Jia. Hierarchical sparse coding of objects in deep convolutional neural networks[J]. Frontiers in Computational Neuroscience, 2020, 14: 578158.
[16]Chen Junjia, Pan Zhibin. Saturated non-monotonic activation functions[EB/OL]. (2023-05-25). https://arxiv.org/abs/2305.07537.
[17]O’shea T J, West N. Radio machine learning dataset generation with GNU radio[C]//Proc of the 6th GNU Radio Conference. 2016: 69-74.
[18]Hermawan A P, Ginanjar R R, Kim D S, et al. CNN-based automa-tic modulation classification for beyond 5G communications[J]. IEEE Communications Letters, 2020, 24(5): 1038-1041.
[19]Xu Jialang, Luo Chunbo, Parr G, et al. A spatiotemporal multi-channel learning framework for automatic modulation recognition[J]. IEEE Wireless Communications Letters, 2020,9(10): 1629-1632.
[20]Njoku J N, Morocho-Cayamcela M E, Lim W. CGDNet: efficient hybrid deep learning model for robust automatic modulation recognition[J]. IEEE Networking Letters, 2021, 3(2): 47-51.
[21]Liu Xiaoyu, Yang Diyu, El Gamal A. Deep neural network architectures for modulation classification[C]//Proc of the 51st Asilomar Conference on Signals, Systems, and Computers. Piscataway, NJ: IEEE Press, 2017: 915-919.
[22]Zhang Fuxin, Luo Cunbo, Xu Jialang, et al. Deep learning based automatic modulation recognition: models, datasets, and challenges[J]. Digital Signal Processing, 2022, 129: 103650.