胡佩聰, 楊文東, 李 佩
(陸軍工程大學(xué) 通信工程學(xué)院,江蘇 南京 210007)
調(diào)制方式的自動(dòng)識(shí)別(automatic modulation classification, AMC)是介于信號(hào)檢測(cè)和信號(hào)解調(diào)之間的一項(xiàng)技術(shù),其主要任務(wù)是實(shí)現(xiàn)信號(hào)的智能接收與處理。在合作通信領(lǐng)域,該技術(shù)主要用于智能無(wú)線電系統(tǒng),包括認(rèn)知無(wú)線電與軟件無(wú)線電;在非合作通信領(lǐng)域,其主要用于電子對(duì)抗,通信偵察等[1]。
傳統(tǒng)調(diào)制方式識(shí)別技術(shù)可以分為兩類:基于似然比(likelihood based, LB)的調(diào)制方式識(shí)別技術(shù)[2]和基于特征(feature based, FB)的調(diào)制方式識(shí)別技術(shù)[3]?;谒迫槐鹊恼{(diào)制方式識(shí)別算法具有較高的準(zhǔn)確率,但它需要信號(hào)模型中隨機(jī)變量的概率分布等先驗(yàn)信息,而這在實(shí)際應(yīng)用中通常是無(wú)法獲取的。另外,該算法計(jì)算復(fù)雜度高,有的場(chǎng)景下僅存在理論上的計(jì)算可能?;谛盘?hào)特征的調(diào)制方式識(shí)別算法計(jì)算復(fù)雜度較低,通過(guò)合理設(shè)計(jì)特征參數(shù)與分類器能獲得較好的分類結(jié)果,但特征參數(shù)的設(shè)計(jì)與分類器的選擇對(duì)性能影響較大。近年來(lái),隨著計(jì)算機(jī)硬件以及大數(shù)據(jù)的發(fā)展,基于深度學(xué)習(xí)的調(diào)制方式識(shí)別方法[4]被大量研究,不同架構(gòu)的神經(jīng)網(wǎng)絡(luò)在調(diào)制識(shí)別領(lǐng)域的應(yīng)用也趨于多樣化,既可用作單獨(dú)的特征提取器或者分類器,也可將其用作二者的結(jié)合。文獻(xiàn)[5]采用簡(jiǎn)單結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)對(duì)通信信號(hào)進(jìn)行調(diào)制識(shí)別,并與傳統(tǒng)基于特征參數(shù)結(jié)合決策樹(shù)、支持向量機(jī)(support vector machine,SVM)等分類器的方法進(jìn)行了比較,展示了CNN在信號(hào)調(diào)制識(shí)別方面的有效性。文獻(xiàn)[6]在此基礎(chǔ)上對(duì)CNN架構(gòu)改進(jìn),通過(guò)增加卷積層數(shù)提高了識(shí)別準(zhǔn)確率,并研究了ResNet、DenseNet和CLDNN等模型的調(diào)制方式識(shí)別性能。文獻(xiàn)[7]分別采用CNN與循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)對(duì)AWGN信道和瑞利衰落信道影響下的6種信號(hào)調(diào)制方式進(jìn)行分類,并將該算法與傳統(tǒng)基于高階累積量結(jié)合SVM分類器算法比較,驗(yàn)證了該算法在分類精度上具有優(yōu)越性。文獻(xiàn)[8]介紹了CNN的變體VGGNet在調(diào)制方式識(shí)別領(lǐng)域的應(yīng)用,表明其在低信噪比下相較于采用SVM方法具有較高的識(shí)別準(zhǔn)確率。文獻(xiàn)[9]結(jié)合信號(hào)的瞬時(shí)特征與高階累積量特征,使用深度神經(jīng)網(wǎng)絡(luò)(deep neural network, DNN)分類器,在AWGN信道條件下對(duì)13類調(diào)制信號(hào)進(jìn)行了有效分類。
以MQAM為代表的復(fù)雜高階調(diào)制信號(hào)以其高效的頻帶利用率被廣泛應(yīng)用于各種有線通信以及無(wú)線通信場(chǎng)合,對(duì)該類信號(hào)的調(diào)制識(shí)別技術(shù)一直以來(lái)是研究熱點(diǎn)。文獻(xiàn)[10]通過(guò)修正的聯(lián)合功率估計(jì)調(diào)制識(shí)別算法構(gòu)造混合高階矩特征參數(shù),使用Fisher準(zhǔn)則對(duì)瑞利衰落信道下的32QAM、64QAM以及128QAM三類信號(hào)進(jìn)行分類,在信噪比大于5 dB時(shí)獲得了超過(guò)98%的識(shí)別準(zhǔn)確率,但該方法對(duì)判決閾值的設(shè)置要求較高。文獻(xiàn)[11]提出基于信號(hào)星座圖與深度學(xué)習(xí)相結(jié)合的方法進(jìn)行數(shù)字信號(hào)調(diào)制識(shí)別,但該方法對(duì)高階QAM信號(hào)分類效果欠佳。文獻(xiàn)[12]提出了一種聯(lián)合四階累積量、零中心歸一化幅度緊致性和減法聚類計(jì)算聚類中心密度值的方法對(duì)MQAM調(diào)制方式進(jìn)行識(shí)別,該方法不需要預(yù)先知道信號(hào)的波特率與載波頻率,但由于采用逐級(jí)分類的方法,對(duì)各級(jí)的識(shí)別準(zhǔn)確率要求較高,易產(chǎn)生錯(cuò)誤傳遞。文獻(xiàn)[13]結(jié)合六階累積量和兩步特征提取結(jié)構(gòu),提出一種通過(guò)降低待識(shí)別信號(hào)調(diào)制階數(shù)的方法對(duì)QPSK、16QAM以及64QAM信號(hào)進(jìn)行識(shí)別。以上文獻(xiàn)分析的QAM信號(hào)或者種類數(shù)量受限,或者信道環(huán)境較為理想。因此,本文將研究對(duì)象確定為受萊斯衰落影響的4QAM、16QAM、32QAM、64QAM、128QAM、256QAM六類信號(hào)。首先通過(guò)星座圖分析萊斯衰落對(duì)該類信號(hào)的影響,然后分別用CNN模型以及信號(hào)特征參數(shù)結(jié)合DNN分類器模型對(duì)受不同程度萊斯衰落的信號(hào)進(jìn)行分類并對(duì)比分析性能。在特征參數(shù)選取上,本文提出直接采用多個(gè)混合高階矩作為特征參數(shù)對(duì)MQAM信號(hào)進(jìn)行分類,該方法與傳統(tǒng)采用高階累積量作為特征參數(shù)的方法相比識(shí)別性能有明顯提升。
接收端信號(hào)模型表示為
r(t)=aej(2πtf0+θc)s(t)+ω(t)
(1)
式中:a表示信道衰落,f0表示頻率偏移,θc表示相位偏移,ω(t)表示零均值的加性復(fù)高斯白噪聲。s(t)為輸入信道的帶通MQAM信號(hào),可表示為
(2)
式中:E為信號(hào)能量,L為碼元序列長(zhǎng)度,sk為MQAM碼元序列,p(t)為發(fā)送碼元波形,Ts為碼元寬度,fc為載波頻率。在接收端對(duì)信號(hào)進(jìn)行下變頻,匹配濾波等預(yù)處理,得到受衰落影響的基帶符號(hào)序列。
萊斯分布又稱廣義瑞利分布,其概率密度函數(shù)為
(3)
式中:c2表示鏡像分量(直射分量)的功率,σ2表示散射分量的功率,I0(·)表示第一類零階貝塞爾函數(shù)。萊斯K因子定義為鏡像分量和散射分量功率之比,表達(dá)式為
(4)
此時(shí),概率密度函數(shù)可由萊斯K因子表示為
(5)
萊斯K因子決定了衰落程度,當(dāng)萊斯K因子趨于零時(shí)(K<-40 dB),即不存在鏡像分量的情況下,萊斯分布退化為瑞利分布,當(dāng)萊斯K因子足夠大時(shí)(K>15 dB),萊斯分布趨于高斯分布。圖1以1 000個(gè)樣點(diǎn)的16QAM星座圖為例,展示了相位偏移為0,信噪比分別為15和20 dB時(shí)不同萊斯K因子對(duì)信號(hào)的影響。從圖1可以看出,萊斯衰落對(duì)信號(hào)的影響體現(xiàn)在兩個(gè)方面,一是對(duì)信號(hào)的尺度進(jìn)行了放縮,二是使信號(hào)的相位產(chǎn)生了偏移。進(jìn)一步通過(guò)對(duì)比可以看出,隨著信噪比的升高,星座圖各點(diǎn)區(qū)分越發(fā)明顯,在相同信噪比條件下,萊斯K因子越大,越接近理想信道下的星座圖。
圖1 16QAM信號(hào)受不同程度萊斯衰落影響的星座圖
2.1.1 數(shù)據(jù)集
本文用MATLAB對(duì)萊斯衰落影響下的4QAM、16QAM、32QAM、64QAM、128QAM以及256QAM六類信號(hào)進(jìn)行仿真并產(chǎn)生相應(yīng)的訓(xùn)練以及測(cè)試數(shù)據(jù)集。訓(xùn)練數(shù)據(jù)集中每類調(diào)制方式產(chǎn)生50 000個(gè)帶標(biāo)簽的信號(hào)序列,每個(gè)信號(hào)序列長(zhǎng)度L=200,接收的第i個(gè)符號(hào)序列滿足ri(n)=aiejθisi(n)+ωi(n),其中n=1,2,…,L,ωi(n)~CN(0,1),θi服從[0,π/4]之間的均勻分布,ai服從萊斯分布,同一符號(hào)序列ai相同,不同符號(hào)序列之間ai不同,每個(gè)符號(hào)序列的平均信噪比服從[0 dB,30 dB]之間均勻分布。測(cè)試的數(shù)據(jù)集采用與訓(xùn)練數(shù)據(jù)集相同的信噪比范圍,測(cè)試數(shù)據(jù)的信噪比間隔為2 dB,每類調(diào)制信號(hào)序列對(duì)應(yīng)于相應(yīng)信噪比采用蒙特卡洛方法產(chǎn)生1 000個(gè)符號(hào)序列。
2.1.2 CNN結(jié)構(gòu)
CNN是一種前饋神經(jīng)網(wǎng)絡(luò),它的神經(jīng)元之間的連接模式受動(dòng)物視覺(jué)皮層的啟發(fā),一般由輸入層、卷積層、池化層、全連接層以及輸出層組成。在過(guò)去幾年,CNN在視頻自動(dòng)分類、語(yǔ)音識(shí)別、圖像分類等領(lǐng)域展現(xiàn)了強(qiáng)大的性能,其在特征提取上的優(yōu)異表現(xiàn)十分契合信號(hào)調(diào)制方式識(shí)別的需求,引起了相關(guān)領(lǐng)域研究者的關(guān)注。本文參考文獻(xiàn)[6]改進(jìn)的CNN模型,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 CNN結(jié)構(gòu)
(1) 輸入層
輸入層用于接收數(shù)據(jù),通常要求數(shù)據(jù)具備3個(gè)維度,分別是長(zhǎng)度、寬度和通道。因此,在將復(fù)基帶符號(hào)序列作為輸入時(shí)需要對(duì)其進(jìn)行預(yù)處理:一是將信號(hào)拆分為實(shí)部和虛部,二是將信號(hào)擴(kuò)展成三維。
(2) 卷積層
卷積層使用卷積核與輸入層的局部區(qū)域相連接,通過(guò)每個(gè)核共享參數(shù)在輸入數(shù)據(jù)中檢測(cè)塊內(nèi)特征,實(shí)現(xiàn)從特定模型中提取特征的功能。其具體參數(shù)設(shè)置如下:第一個(gè)卷積層的卷積核數(shù)為64,卷積核大小為1×3,卷積步長(zhǎng)為1;第二個(gè)卷積層的卷積核數(shù)為64,卷積核大小為2×3,卷積步長(zhǎng)為1;第三個(gè)卷積層的卷積核數(shù)為16,卷積核大小為1×3,卷積步長(zhǎng)為1;第四個(gè)卷積層的卷積核數(shù)為16,卷積核大小為1×3,卷積步長(zhǎng)為1。每個(gè)卷積層均采用偏差項(xiàng),偏差項(xiàng)采用零均值初始化方法,權(quán)重初始化采用Glorot均勻分布初始化方法,不采用正則項(xiàng)與權(quán)重約束,激勵(lì)函數(shù)為ReLU,補(bǔ)邊方法定義為Valid。
(3) 全連接層
該層的每個(gè)神經(jīng)元與相鄰層的所有神經(jīng)元進(jìn)行連接,但層內(nèi)不共享任何連接。第一層網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)為128,激勵(lì)函數(shù)為ReLU,第二層網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)為輸出類別數(shù),激勵(lì)函數(shù)為Softmax。
在卷積層與全連接層連接時(shí),需要通過(guò)Flatten層將數(shù)據(jù)的二維特征一維化,以完成向全連接層的傳遞。
2.1.3 訓(xùn)練參數(shù)設(shè)置
訓(xùn)練參數(shù)的選擇對(duì)神經(jīng)網(wǎng)絡(luò)的性能有著至關(guān)重要的影響,為防止發(fā)生過(guò)擬合,在模型訓(xùn)練過(guò)程中,本文在Flatten層前采用Dropout層按照一定概率隨機(jī)排除一部分輸入神經(jīng)元,將其暫時(shí)從網(wǎng)絡(luò)中丟棄,參數(shù)設(shè)置為0.5,與文獻(xiàn)[5]中的CNN2模型一致。將訓(xùn)練數(shù)據(jù)集的15%作為驗(yàn)證集,用于測(cè)試網(wǎng)絡(luò)的訓(xùn)練效果,神經(jīng)網(wǎng)絡(luò)采用的損失函數(shù)為多類別交叉熵,優(yōu)化方法為自適應(yīng)矩估計(jì)(Adam),學(xué)習(xí)率為0.001,學(xué)習(xí)率更新參數(shù)β1=0.9,β2=0.999,模糊因子ε=10-8,每批次訓(xùn)練的數(shù)據(jù)量為100個(gè)信號(hào)序列(batch_size=100),所有數(shù)據(jù)訓(xùn)練一次為一次迭代(Epoch),訓(xùn)練的停止條件為Epoch達(dá)到100次或者訓(xùn)練損失值連續(xù)10個(gè)Epoch沒(méi)有改善,與文獻(xiàn)[4]中的CNN模型一致。
圖3以萊斯K因子為0 dB時(shí)產(chǎn)生的數(shù)據(jù)集為例,展示了CNN模型的訓(xùn)練損失與測(cè)試損失曲線對(duì)比。從圖中可以看出,在進(jìn)行第14次迭代時(shí),測(cè)試的損失值達(dá)到最小,一般此時(shí)測(cè)試準(zhǔn)確率最高,根據(jù)設(shè)置的訓(xùn)練終止條件,在第24次迭代時(shí)訓(xùn)練終止,最終CNN的網(wǎng)絡(luò)權(quán)重采用第14次迭代時(shí)的網(wǎng)絡(luò)權(quán)重。
圖3 CNN訓(xùn)練損失與測(cè)試損失
2.2.1 特征參數(shù)
復(fù)平穩(wěn)隨機(jī)過(guò)程{x(n)}的p階混合矩定義為
Mpq=E[x(n)p-qx*(n)q]
(6)
式中:x*(n)為x(n)的復(fù)共軛,p為階數(shù),q為共軛的位置。其各高階累積量表達(dá)式為
對(duì)于與信號(hào)相互獨(dú)立的加性高斯白噪聲,當(dāng)階數(shù)大于2時(shí),其高階累積量的理論值為0,因此高階累積量有較強(qiáng)抑制噪聲的能力,其作為特征參數(shù)用于調(diào)制方式識(shí)別已被廣泛研究。對(duì)于MQAM信號(hào),有些高階累積量的理論值恒為零(如C41與C60等),選擇這些量作為特征參數(shù)將毫無(wú)意義。經(jīng)過(guò)計(jì)算,采用特征參數(shù)集U1={|C40|,|C42|,|C61|,|C63|,|C80|}作為分類器的輸入。在對(duì)信號(hào)去除噪聲能量干擾并進(jìn)行能量歸一化后,選取的各高階累積量特征參數(shù)理論值如表1所示。
表1 高階累積量特征參數(shù)理論值
高階累積量由不同階的混合高階矩多項(xiàng)式組合而成,其本質(zhì)上是在信號(hào)混合高階矩的基礎(chǔ)上進(jìn)一步進(jìn)行特征提取的過(guò)程。對(duì)于使用DNN分類器進(jìn)行調(diào)制識(shí)別的方法,可將混合高階矩直接交給神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取與分類。為方便與高階累積量特征參數(shù)進(jìn)行比較,分別采用包含5個(gè)混合高階矩的特征參數(shù)集U2={|M40|,|M42|,|M61|,|M63|,|M80|}與包含7個(gè)混合高階矩的特征參數(shù)集U3={|M40|,|M42|,|M61|,|M63|,|M80|,|M82|,|M84|}作為分類器輸入。在對(duì)信號(hào)去除噪聲能量干擾并進(jìn)行能量歸一化后,選取的各混合高階矩特征參數(shù)理論值如表2所示。
表2 混合高階矩特征參數(shù)理論值
2.2.2 DNN分類器
DNN作為信號(hào)調(diào)制方式識(shí)別分類器能有效克服傳統(tǒng)分類器存在的分類規(guī)則設(shè)計(jì)困難等問(wèn)題,可獲得較好的調(diào)制識(shí)別性能。DNN一般由輸入層、隱藏層和輸出層組成,每一層有一個(gè)或多個(gè)神經(jīng)元。該網(wǎng)絡(luò)的主要特點(diǎn)是每個(gè)神經(jīng)元都接收來(lái)自前一層的各神經(jīng)元作為輸入,并將其輸出饋送到下一層中的每個(gè)神經(jīng)元。本文采用的DNN結(jié)構(gòu)如圖4所示。輸入層維度為特征參數(shù)的數(shù)量(F1,F2,…,Fm),隱藏層層數(shù)為4,維度分別為32,64,64,32;輸出層維度為待分類調(diào)制方式類別數(shù)。隱藏層激活函數(shù)為ReLU,輸出層激活函數(shù)為Softmax;損失函數(shù)為多類別交叉熵;優(yōu)化方法為Adam,學(xué)習(xí)率為0.001;采用偏差項(xiàng),偏差項(xiàng)采用零均值初始化方法;網(wǎng)絡(luò)權(quán)重初始化采用Glorot均勻分布初始化方法;不采用正則項(xiàng)與權(quán)重約束。為便于比較,特征參數(shù)結(jié)合DNN分類器模型的信號(hào)參數(shù)與CNN模型的信號(hào)參數(shù)一致,其訓(xùn)練數(shù)據(jù)集為接收信號(hào)經(jīng)處理后獲得的特征參數(shù)集,訓(xùn)練過(guò)程設(shè)置與CNN模型一致,每批次訓(xùn)練的數(shù)據(jù)量為100組特征參數(shù),所有參數(shù)訓(xùn)練一次為一次Epoch,訓(xùn)練的停止條件為Epoch達(dá)到100次或者訓(xùn)練損失值連續(xù)10個(gè)Epoch沒(méi)有改善。
圖4 DNN分類器結(jié)構(gòu)
為深入研究萊斯衰落對(duì)各模型分類性能的影響,本文仿真產(chǎn)生了萊斯K因子為0、5和10 dB時(shí)的MQAM數(shù)據(jù)集,分別采用CNN模型以及特征參數(shù)結(jié)合DNN模型的調(diào)制方式識(shí)別方法進(jìn)行分類,并比較它們的性能。圖5展示了以上各模型的識(shí)別性能,從圖中可以看出,隨著信噪比rs,n的提升,信號(hào)調(diào)制識(shí)別的準(zhǔn)確率逐漸上升,且萊斯K因子越大,分類性能越好?;谔卣鲄?shù)結(jié)合DNN的模型存在性能上限,當(dāng)信噪比高到一定程度后,分類性能不再提高,但該模型能較好地對(duì)抗萊斯衰落,不同萊斯衰落程度的準(zhǔn)確率曲線較為接近。
圖5 各模型識(shí)別準(zhǔn)確率
以萊斯K因子為10 dB時(shí)產(chǎn)生的MQAM數(shù)據(jù)集為例,圖6展示了在該數(shù)據(jù)集下各模型的識(shí)別準(zhǔn)確率對(duì)比。
圖6 各模型識(shí)別準(zhǔn)確率對(duì)比(K=10 dB)
從圖中可以看出,CNN模型在高信噪比條件下(rs,n>24 dB)獲得了最好的識(shí)別性能,但如此高的信噪比現(xiàn)實(shí)中很難達(dá)到。相比CNN而言,在低信噪比下,特征參數(shù)結(jié)合DNN模型展現(xiàn)了其在識(shí)別率上的優(yōu)勢(shì)。通過(guò)不同特征參數(shù)集下分類準(zhǔn)確率的對(duì)比可以看出,采用高階混合矩作為特征參數(shù)的性能上限明顯高于采用高階累積量作為特征參數(shù),且采用的參數(shù)越多,性能越好。
為研究各類信號(hào)的具體識(shí)別情況,本文對(duì)CNN模型以及特征參數(shù)集U3結(jié)合DNN模型的分類混淆矩陣進(jìn)行了仿真。圖7展示了信噪比為24 dB時(shí)兩種方法的混淆矩陣,從圖中可以看出,基于CNN的方法分類的困難集中于64QAM、128QAM以及256QAM三者之間的區(qū)分,這3類信號(hào)的識(shí)別準(zhǔn)確率相對(duì)偏低且存在相互間的誤識(shí)別,原因在于高階QAM數(shù)據(jù)本身非常接近,再加上衰落與噪聲的影響,導(dǎo)致CNN對(duì)高階QAM誤判率比較高。基于高階混合矩與DNN方法分類的困難在于32QAM與128QAM之間、64QAM與256QAM之間的區(qū)分,原因在于其特征參數(shù)理論值非常接近,再加上衰落與噪聲的影響,增加了誤判的可能性。
圖7 混淆矩陣
本文對(duì)萊斯衰落影響下的MQAM信號(hào)特點(diǎn)進(jìn)行了研究,分別用CNN模型與特征參數(shù)結(jié)合DNN模型對(duì)6類QAM信號(hào)進(jìn)行了分類并作了性能比較。實(shí)驗(yàn)重點(diǎn)研究了基于混合高階矩與DNN結(jié)合的方法,仿真結(jié)果表明,該分類方法在一定程度上能對(duì)抗萊斯衰落對(duì)信號(hào)的影響,在低信噪比下識(shí)別準(zhǔn)確率優(yōu)于CNN模型,且無(wú)需帶標(biāo)簽的數(shù)據(jù)集,具有較高的實(shí)用價(jià)值,同時(shí)與采用高階累積量作為特征參數(shù)的方法相比,該方法識(shí)別效果優(yōu)勢(shì)明顯。