吳美霖,高瑜翔*,涂雅培,覃鏡濤,唐芷宣,胡 斐
(1.成都信息工程大學(xué) 通信工程學(xué)院,四川 成都 610225;2.氣象信息與信號處理四川省高校重點實驗室,四川 成都 610225)
自動調(diào)制識別(Automatic Modulation Classification,AMC)技術(shù)在電子偵察、認(rèn)知無線電等[1-2]智能通信應(yīng)用中一直發(fā)揮著重要作用。隨著通信信號調(diào)制方式的激增以及通信電磁環(huán)境愈加復(fù)雜,如何提高調(diào)制識別的精度、降低特征提取的復(fù)雜度已成為通信領(lǐng)域研究的熱點。
傳統(tǒng)的調(diào)制識別方式識別性能嚴(yán)重依賴于人工提取特征的區(qū)分度,對于多種調(diào)制方式的識別需要設(shè)計的特征個數(shù)增加,對特征區(qū)分度的要求也更高。近年來,無線通信技術(shù)的發(fā)展逐步進(jìn)入認(rèn)知智能時代,大量研究人員將深度學(xué)習(xí)應(yīng)用到AMC領(lǐng)域。文獻(xiàn)[3]將時頻圖像處理為二值圖像,利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)完成8種認(rèn)知無線電波形的分類。文獻(xiàn)[4]通過生成對抗網(wǎng)絡(luò)增強數(shù)據(jù)集,生成輪廓星座圖用于數(shù)字調(diào)制方式的識別。文獻(xiàn)[5]通過平滑循環(huán)相關(guān)熵譜和殘差網(wǎng)絡(luò)完成了Alpha穩(wěn)定分布噪聲下的調(diào)制識別。調(diào)制信號圖像特征集的制作及后續(xù)一系列圖像處理操作,將會引入圖像處理領(lǐng)域的難題到原本的調(diào)制識別工作中。
目前,AMC的調(diào)制信號分類特征參數(shù)已經(jīng)非常成熟,其中不乏計算量低、分類效果好的特征參數(shù)。研究表明,多輸入結(jié)構(gòu)有利于調(diào)制信號隱藏特征的充分提取及融合,有利于提高AMC的識別精度。注意力機制能夠改變輸入特征不同維度的權(quán)重,應(yīng)用于AMC中,可以為神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的調(diào)制信號特征分配權(quán)重,進(jìn)而減少數(shù)據(jù)冗余。據(jù)此,本文提出了一種基于特征融合和自注意力機制的并聯(lián)調(diào)制識別算法——MACLNN。提出的模型不再依賴于復(fù)雜冗長的網(wǎng)絡(luò)結(jié)構(gòu),無需制作調(diào)制信號的圖像特征集。將原始采樣數(shù)據(jù)和特征參數(shù)組合作為網(wǎng)絡(luò)的輸入,使用復(fù)雜度更低的淺層網(wǎng)絡(luò)完成11類數(shù)字和模擬調(diào)制信號的高精度識別。
通信信號的特征分為統(tǒng)計量特征、譜相關(guān)特征和小波變換特征等,主要表征為特征參數(shù)和圖像的形式。出于探尋一種便于在硬件平臺部署、可作為數(shù)模調(diào)制信號混合識別工作通用模型的目的,使用復(fù)雜度更低的特征參數(shù)組合作為分支模型的輸入。實驗原始數(shù)據(jù)集為IQ數(shù)據(jù)集,因此接收到的數(shù)據(jù)可以表示為:
x[i]=xI[i]+jxQ[i],
(1)
式中,x[i]表示第i個信號樣本;xI[i]和xQ[i]分別表示第i個信號的同相分量和正交分量。由于高斯噪聲在二階以上的統(tǒng)計量為零,高階累積量對高斯噪聲具有魯棒性,因此其常用于信號的調(diào)制方式識別。
通過累積量-矩公式(C-M公式)和矩-累積量公式(M-C公式)[6],對于零均值復(fù)隨機信號x[i]的p階矩和q階累積量可表示為:
E[x(i)p-qx*(i)q],
(2)
(3)
式中,*表示復(fù)共軛;p為階數(shù)(p>q);q為取復(fù)共軛的序列個數(shù);E表示求均值,下同。經(jīng)過推導(dǎo),可得到x(i)的常用高階累積量表達(dá)式[7]為:
C21=M21,
(4)
(5)
C41=M41-3M20M21,
(6)
(7)
(8)
(9)
(10)
(11)
因為各種調(diào)制方式的高階累積量不完全相同,所以從中提取的信號特征可用于信號的調(diào)制方式識別。為節(jié)約計算開銷,根據(jù)經(jīng)驗構(gòu)造以下3種分類特征參數(shù):
(12)
(13)
(14)
為了進(jìn)一步區(qū)分模擬調(diào)制方式寬帶調(diào)頻(Wide Band Frequency Modulation,WBFM)和雙邊帶抑制載波調(diào)幅(Amplitude Modulation-Double Side Band,AM-DSB),本文引入了零中心歸一化瞬時幅度譜密度最大值Rmax[8]作為第4個調(diào)制特征參數(shù):
(15)
式中,N為每條采樣信號的采樣點數(shù),即128;Acn(i)為零中心歸一化瞬時幅度,計算式為:
(16)
然而,這些特征對于多進(jìn)制正交幅度調(diào)制(Multiple Quadrature Amplitude Modulation,MQAM)的分類效果不佳,因此加入歸一化采樣信號的功率譜密度最大值(PSD)、峰均方根比(PRR)和峰均比(PAR)這3個特征參數(shù),分別作為特征參數(shù)集的F5,F(xiàn)6,F(xiàn)7:
(17)
(18)
(19)
式中,N為接收信號x(i)的采樣點數(shù);x(:)為x(i)的所有采樣點;max()表示x(i)中采樣點最大值。
由Rmax,PSD,PRR,PAR以及3種組合重構(gòu)的高階累積量共同構(gòu)成特征參數(shù)數(shù)據(jù)集F=[F1,F2,F3,F4,F5,F6,F7,F8]。
本文網(wǎng)絡(luò)MACLNN為雙路輸入的并聯(lián)結(jié)構(gòu),其中分支1使用2層CNN代替決策樹等傳統(tǒng)方法對調(diào)制特征參數(shù)進(jìn)行特征提取,加入自注意力機制進(jìn)一步獲取信號的關(guān)鍵特征,是對參數(shù)類調(diào)制數(shù)據(jù)集特征提取的一種新結(jié)構(gòu)。本分支是對參數(shù)類調(diào)制數(shù)據(jù)集的一種新的處理思路,使用深度學(xué)習(xí)的方法對參數(shù)數(shù)據(jù)集進(jìn)行特征提取處理。
分支2為了充分提取時間序列的特征,使用一層CNN和2層長短期神經(jīng)網(wǎng)絡(luò)串聯(lián)的結(jié)構(gòu),同時加入自注意力機制,減少網(wǎng)絡(luò)疊加帶來的數(shù)據(jù)冗余。分支2進(jìn)行原始調(diào)制信號的調(diào)制方式識別時,其在公開數(shù)據(jù)集上具有較好的識別性能。
經(jīng)過并聯(lián)層拼接2路分支模型所提取的特征,進(jìn)行展平后通過Dense層完成調(diào)制分類識別。MACLNN的結(jié)構(gòu)如圖1所示。
圖1 MACLNN結(jié)構(gòu)
CNN是一種由卷積運算和深層結(jié)構(gòu)組成的前反饋神經(jīng)網(wǎng)絡(luò),其基本結(jié)構(gòu)單元有卷積層、激活層、池化層和全連接層,CNN的作用可看作輸入到輸出的映射。隨著智能信息處理領(lǐng)域的發(fā)展,CNN分類的能力逐漸被研究人員應(yīng)用到調(diào)制識別技術(shù)中并加以改進(jìn)。
無論是特征參數(shù)還是原始數(shù)據(jù)集的分支模型輸入,卷積層均使用一維卷積。MACLNN的分支1用于特征參數(shù)組合的輸入,因此將卷積層的核尺寸設(shè)為1,且不使用池化層;分支2用于采樣序列的輸入,根據(jù)其輸入結(jié)構(gòu)將核尺寸設(shè)計為8,2條分支模型所使用的卷積層濾波器個數(shù)均為64。
為了更好地提取原始序列的特征信息,本文引入了長短時記憶網(wǎng)絡(luò)(Long Short-term Memory,LSTM)。LSTM在文獻(xiàn)[9]中首次提出,被廣泛應(yīng)用于處理時間序列數(shù)據(jù)。相較于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),LSTM引入了輸入門、遺忘門和輸出門,以及與隱藏狀態(tài)相同的記憶單元,用于記錄附加信息,其單元結(jié)構(gòu)如圖2所示。
圖2 LSTM結(jié)構(gòu)
圖2中,Ct和Ct-1分別表示當(dāng)前時刻和上一時刻的細(xì)胞狀態(tài);ft表示遺忘門;it表示輸入門;ht表示輸出門。計算過程如下:
ft=σ(Wf·[ht-1,xt]+bf),
(20)
it=σ(Wi·[ht-1,xt]+bi),
(21)
(22)
(23)
ht=σ(W0[ht-1,xt]+bo)?tanh(Ct)。
(24)
由于LSTM的閘門機制有利于長時間儲存有用的歷史信息,因此可以持續(xù)地學(xué)習(xí)數(shù)據(jù)特征。LSTM在處理時間序列任務(wù)時,表現(xiàn)出優(yōu)良的性能。MACLNN的分支2使用了2層LSTM結(jié)構(gòu)來提取時間序列的特征,每層LSTM后使用Dropout層來防止過擬合,所提取的特征經(jīng)過并聯(lián)層與特征參數(shù)輸入層得到的特征進(jìn)行拼接,送入全連接層進(jìn)行分類處理。
深度學(xué)習(xí)領(lǐng)域存在信息過載的問題,為了更好地分配資源,將有限的計算資源用于處理更重要的信息,本文引入了注意力機制。注意力機制可以為關(guān)鍵特征分配更大的權(quán)重,使模型的注意力更集中于關(guān)鍵的部分特征。研究表明[10],注意力機制的加入有助于提高AMC的精度。同時,考慮到后續(xù)工作以及AMC工作的難度將逐漸加大,所需特征數(shù)也隨之增加,因此在分支網(wǎng)絡(luò)的末端均加入自注意力機制,用于改變時間維度的權(quán)重,使得深度學(xué)習(xí)模型關(guān)注到更關(guān)鍵的特征參數(shù)。
為方便驗證和對比MACLNN的性能,使用文獻(xiàn)[11]提供的RadioML2016.10a數(shù)據(jù)集進(jìn)行實驗,此數(shù)據(jù)集包括11種調(diào)制類型:8PSK,BPSK,CPFSK,GFSK,PAM4,QAM16,QAM64,QPSK,AM-DSB,AM-SSB,WBFM。在18 dB下的可視化結(jié)果如圖3所示,橫坐標(biāo)表示采樣點,縱坐標(biāo)表示IQ數(shù)據(jù)的采樣值大小,紅色曲線、藍(lán)色曲線分別表示采樣信號實部、虛部在時域的采樣值。
(a)8PSK
圖3的數(shù)據(jù)可視化中,信號樣本的信噪比區(qū)間為[-20,18]dB,以2 dB為間隔,采樣長度為128,數(shù)據(jù)存儲為IQ信號。采樣數(shù)據(jù)使用真實的文本信號和語言信號,在通信信道中添加了加性高斯白噪聲、多徑衰落、中心頻率偏移和采樣率偏移等干擾,因此十分接近真實場景下的采樣數(shù)據(jù)。
將RadioML2016.10a數(shù)據(jù)集中70%的數(shù)據(jù)樣本作為訓(xùn)練集,15%的數(shù)據(jù)樣本作為驗證集,15%的數(shù)據(jù)樣本作為測試集。實驗環(huán)境為Windows操作系統(tǒng),搭載NVIDIA RTX 3060 GPU,使用Python接口的tensorflow2.4.0深度學(xué)習(xí)框架完成仿真實驗。仿真實驗部分采用分類識別準(zhǔn)確率對網(wǎng)絡(luò)模型分類精度進(jìn)行度量,使用混淆矩陣對各類調(diào)制方式的識別準(zhǔn)確率及錯誤識別情況進(jìn)行分析與對比,使用網(wǎng)絡(luò)參數(shù)量作為網(wǎng)絡(luò)模型復(fù)雜度的衡量指標(biāo)。
使用相同的數(shù)據(jù)集,本文按照AMC中的經(jīng)典模型結(jié)構(gòu)設(shè)計了3種模型與MACLNN進(jìn)行對比,用于驗證所提方法是否能有效提取調(diào)制信號特征,是否能提高AMC的識別率。其中IQ_CNN為3層CNN,IQ_CLNN為1層CNN和2層LSTM,IQ_BiLSTM為1層CNN和2層BiLSTM,以上算法均為級聯(lián)結(jié)構(gòu)。仿真實驗所用CNN均為一維CNN,3種對比模型與MACLNN的分支2所涉及的濾波器個數(shù)、卷積核尺寸等參數(shù)均相同。
不同算法精度對比如圖4所示。由圖4可知,相較于其他3種模型,MACLNN的識別準(zhǔn)確率有明顯提升,在信噪比達(dá)到-12 dB后,MACLNN性能開始優(yōu)于其他算法模型。在0 dB識別準(zhǔn)確率達(dá)到89%,在高信噪比處MACLNN精度最高達(dá)到94.1%,相較于其他3種算法模型,高信噪比處的識別精度高出3%以上。
圖4 不同算法精度對比
為了更好地說明MACLNN對不同調(diào)制方式識別性能的改善,使用混淆矩陣對4 dB下的IQ_CNN,IQ_CLNN和MACLNN進(jìn)行對比分析?;煜仃囍?,橫、縱指標(biāo)相同時對應(yīng)值越大表示此類調(diào)制方式識別率越高。3種算法在4 dB時的混淆矩陣如圖5~圖7所示。
圖5 SNR=4 dB,IQ_CNN混淆矩陣
圖6 SNR=4 dB,IQ_CLNN混淆矩陣
圖7 SNR=4 dB,MACLNN混淆矩陣
為了進(jìn)一步評估MACLNN的性能及模型復(fù)雜度,將其與使用相同數(shù)據(jù)集的同類型算法對比,將對比算法分別記為1_CNN-BiLSTM[11],2_CLDNN[12],3_CLSNN[13],4_CNN-LSTM[14]和5_HNIC[15],將訓(xùn)練參數(shù)、最高識別精度作為指標(biāo),對比結(jié)果如表1所示。
表1 同類型算法對比
相較于對比的5種算法,MACLNN以較少的訓(xùn)練參數(shù),僅使用原始數(shù)據(jù)和少量特征參數(shù)作為模型輸入,在128采樣長度的模擬、數(shù)字調(diào)制數(shù)據(jù)集中實現(xiàn)了最高94.1%的AMC精度,達(dá)到了當(dāng)前的最高精度。
針對模擬、數(shù)字調(diào)制混合識別復(fù)雜度高和精度低的問題,提出了一種基于特征融合和自注意力機制的并聯(lián)調(diào)制識別模型。MACLNN使用更簡單的特征參數(shù)組合與原始數(shù)據(jù)集作為數(shù)據(jù)輸入,同時降低了分類網(wǎng)絡(luò)的復(fù)雜度,實現(xiàn)了數(shù)字、模擬調(diào)制信號的高精度識別。實驗結(jié)果表明,MACLNN在RML2016.10a的識別準(zhǔn)確率高于同類算法,最高識別準(zhǔn)確率為94.1%。而引入的特征參數(shù)組合方式有效提高了16QAM,64QAM和WBFM的識別精度,在信噪比4 dB時這3種調(diào)制方式均達(dá)到了95%以上的平均識別率。為降低數(shù)字、模擬調(diào)制方式的AMC技術(shù)的難度提供了一種新思路,模型復(fù)雜度低也使得所提算法更具實際應(yīng)用價值。