国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

2025-02-08 00:00:00許雪姚文強李晨郭業(yè)才
現(xiàn)代電子技術(shù) 2025年3期
關(guān)鍵詞:空間特征

摘" 要: 針對神經(jīng)網(wǎng)絡(luò)提取的信號特征不足導(dǎo)致信號識別率下降的問題,提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法。該算法先對輸入信號進行混合數(shù)據(jù)增強,生成更多維度的樣本以便網(wǎng)絡(luò)更好地提取信號特征;再將處理后的樣本信號輸入雙通道網(wǎng)絡(luò)(CNN and BiLSTM Parallel),并行提取信號的空間特征和時間特征;最后將提取到的特征輸入到門控注意力網(wǎng)絡(luò)中,自適應(yīng)地調(diào)整特征權(quán)重,減少網(wǎng)絡(luò)復(fù)雜度。實驗表明,文中提出的算法最高分類準確率為92.3%,優(yōu)于對比的其他網(wǎng)絡(luò)模型。

關(guān)鍵詞: 自動調(diào)制識別; 雙通道網(wǎng)絡(luò); 長短時記憶網(wǎng)絡(luò); 門控注意力網(wǎng)絡(luò); 空間特征; 時間特征

中圖分類號: TN911.3?34; TP183" " " " " " " " 文獻標識碼: A" " " " " " " " " " " "文章編號: 1004?373X(2025)03?0069?07

Modulation signal classification and recognition algorithm

based on gated attention network

XU Xue1, YAO Wenqiang2, LI Chen1, GUO Yecai1

(1. Wuxi University, Wuxi 214105, China; 2. Jiangsu Electronic Information Product Quality Supervision and Inspection Institute, Wuxi 214072, China)

Abstract: The signal features extracted by neural network are insufficient, which leads to the decline of signal recognition rate, so this paper proposes a modulation signal classification and recognition algorithm based on gated attention network. In this algorithm, the input signal is subjected to mixed data augmentation to generate samples with more dimensions, so that the network can extract satisfactory signal features. And then, the processed sample signal is input into a dual?channel network (CNN and BiLSTM parallel) to extract the spatial and temporal features of the signal in parallel. Finally, the extracted features are input into the gated attention network to adjust feature weights adaptively and reduce network complexity. The experiment shows that the highest classification accuracy of the proposed algorithm is 92.3%, which is better than that of the other comparison network models in this article.

Keywords: automatic modulation recognition; dual?channel network; LSTM network; gated attention network; spatial feature; temporal feature

0" 引" 言

自動調(diào)制分類(AMC)作為一項關(guān)鍵技術(shù),在民用和軍事領(lǐng)域發(fā)揮著重要作用[1],其核心任務(wù)是在接收信號調(diào)制類型未知的情況下,自動對信號進行分類。傳統(tǒng)調(diào)制方式識別主要包括基于最大似然(LB)和基于特征提?。‵B)[2?3]。LB方法通常使用概率模型和假設(shè)檢測理論,利用決策準則對接收信號進行分類[4];FB方法提取接收信號的特征[5],并利用分類器進行識別分類[6?7]。AMC學(xué)者一直專注于降低算法復(fù)雜度,提高信號特征的提取效率,并尋找更多更有效的先驗條件來提高識別率[8?9]。

近年來,基于深度學(xué)習(xí)[10?11]的調(diào)制類型識別方法取得了優(yōu)越的效果。相對于傳統(tǒng)調(diào)制方式識別算法需要人工設(shè)計專家特征提取信號的特征,深度學(xué)習(xí)能夠自動提取信號的全部特征,從而避免了對信號的繁瑣預(yù)處理步驟[12]。文獻[13]提出自編碼器模型對信號調(diào)制分類,但實驗使用的卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)簡單,提取的信號特征有限,導(dǎo)致識別精度較低;文獻[14]提出一種循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(RNN),該網(wǎng)絡(luò)可以關(guān)注信號樣本前后的時間特征信息,補全了CNN在提取信號特征時的不足;文獻[15]使用更深層的深度神經(jīng)網(wǎng)絡(luò)(DNN)來識別調(diào)制信號的類型,這些網(wǎng)絡(luò)模型通常具有更多層的隱藏層和更多的神經(jīng)元,因此能在訓(xùn)練數(shù)據(jù)集中提取更多的信號特征,獲得更高的分類準確率,但同時增加了算法的復(fù)雜度。

為解決此類問題,本文提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,混合數(shù)據(jù)增強模塊對輸入信號進行時域數(shù)據(jù)增強和自擾動數(shù)據(jù)增強,該模塊將輸入信號進行時域變換和自擾動操作,以此增加樣本信號的數(shù)量,有利于神經(jīng)網(wǎng)絡(luò)提取信號的特征;將處理后的樣本輸入到雙通道網(wǎng)絡(luò)中進行特征提取,第一通道的CNN提取信號的空間特征,第二通道的BiLSTM網(wǎng)絡(luò)提取信號的時間特征;最后將提取的特征輸入到門控注意力網(wǎng)絡(luò)中進行分類計算,對提取的大量特征進行權(quán)重賦值,門控機制將無用的特征丟棄,大大減小了算法的復(fù)雜度。

1" 調(diào)制信號模型

調(diào)制信號主要分為模擬調(diào)制和數(shù)字調(diào)制兩類,模擬調(diào)制是將原始信息直接調(diào)制到載波信號上,而數(shù)字調(diào)制則是通過將數(shù)字信號轉(zhuǎn)換為模擬信號后再進行調(diào)制或直接調(diào)制數(shù)字信號[16]。在無線通信系統(tǒng)中,發(fā)射器負責(zé)將信息轉(zhuǎn)換為模擬調(diào)制信號或數(shù)字調(diào)制信號進行發(fā)送,如圖1所示,信道是信息傳輸?shù)慕橘|(zhì),而接收器則接收和解碼信號。接收到的信號表示如下:

[r(t)=-∞∞s(τ)?h(t-τ)dτ+n(t)] (1)

式中:[r(t)]為接收到的調(diào)制信號;[s(τ)]為發(fā)送的調(diào)制信號;[h(t)]表示信道的沖激響應(yīng);[n(t)]為噪聲信號。本文使用加性噪聲來研究復(fù)雜信道下的調(diào)制算法。

2" 基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號識別算法由輸入模塊、混合數(shù)據(jù)增強模塊(Mixed Data Augmentation, MDA)、雙通道網(wǎng)絡(luò)(CBNet)和門控注意力網(wǎng)絡(luò)(Gate Attention, GAtt)組成,算法整體架構(gòu)如圖2所示。

2.1" 混合數(shù)據(jù)增強算法

輸入神經(jīng)網(wǎng)絡(luò)的信號往往都是單一相位的調(diào)制信號,為了使神經(jīng)網(wǎng)絡(luò)更好地提取信號特征,本文提出了一種混合數(shù)據(jù)增強算法(MDA)。對原始數(shù)據(jù)進行時域增強和頻域增強,其中時域增強通過對信號進行時移操作以改變信號在時間軸上的位置,使網(wǎng)絡(luò)能夠?qū)W習(xí)到不同時間偏移下的特征;自擾動數(shù)據(jù)增強通過對輸入信號進行各種形式的擾動或變換,從而產(chǎn)生更多樣化、更具代表性的訓(xùn)練樣本。混合數(shù)據(jù)增強模型如圖3所示。

2.1.1" 時域數(shù)據(jù)增強

時域移位操作通過在信號的時間序列上進行平移來實現(xiàn)。對于離散時間信號[x(n)],時域移位操作可以表示為[x(n-Δn)],其中[Δn]為采樣點的偏移量。以下是時域數(shù)據(jù)增強的具體步驟:

1) 創(chuàng)建一個新的信號[y(n)],其長度與[x(n)]相同;

2) 將[x(n)]的值從[n=0]到[n=N-1]復(fù)制到[y(n+k)];

3) 如果[kgt;0],則在[y(n)]的開始處填充[k]個零;如果[klt;0],則在[y(n)]的末尾處填充[-k]個零。

通過上述步驟,即可實現(xiàn)將信號[x(n)]向右移動[k]個采樣點的操作,從而進行時域移位。

2.1.2" 自擾動數(shù)據(jù)增強

自擾動進行數(shù)據(jù)增強是指隨機裁剪數(shù)據(jù)的一部分,將其拼接回剩余數(shù)據(jù)的過程[17]。假設(shè)進行自擾動增強的數(shù)據(jù)表示為[X],裁剪后剩余的數(shù)據(jù)表示為[Xc],裁剪后的剩余數(shù)據(jù)長度表示為[Xc],從原始數(shù)據(jù)中取出的隨機片段表示為[x]。自擾動增強數(shù)據(jù)可表示為:

[XOP=Xc[0?p]+x+Xcp:Xc] (2)

式中:[XOP]為自擾動數(shù)據(jù)增強算法的輸出;[p]為[Xc]的一個隨機位置。

自擾動算法涉及裁剪序列的部分內(nèi)容,將其添加到隨機位置,以擴展數(shù)據(jù)集并豐富特征。該算法提高了模型的泛化性能,即在訓(xùn)練集之外的數(shù)據(jù)上表現(xiàn)良好的能力,增強數(shù)據(jù)的多樣性,減少過擬合的風(fēng)險,而且不會引入額外的信息。

2.2" 雙通道網(wǎng)絡(luò)

2.2.1" 雙向長短時記憶網(wǎng)絡(luò)

盡管LSTM網(wǎng)絡(luò)能夠較好地提取信號的時間特征,但當(dāng)前時間點的單元狀態(tài)只能通過上一個時間點的信息來更新。雙向長短時記憶網(wǎng)絡(luò)(BiLSTM)能夠同時從前向和后向分析輸入信號,提取更全面的時間特征[18?19]。其中,BiLSTM網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

在圖4中,網(wǎng)絡(luò)各層可用公式表示為:

[ht=f(W(1)xt+V(1)ht-1+b(1))] (3)

[ht=f(W(2)xt+V(2)ht+1+b(2))] (4)

[ht=ht⊕ht] (5)

[yt=g(Uht+c)] (6)

2.2.2" 雙通道網(wǎng)絡(luò)架構(gòu)

本文提出的雙通道網(wǎng)絡(luò)架構(gòu)如圖5所示。第一通道由CNN層和Flatten層組成,其中第一個CNN層包括256個2×3的卷積核,第二個CNN層包含256個1×3的卷積核;第二通道是由BiLSTM層組成,其中兩個BiLSTM層均包含128個單元。

2.3" 門控注意力網(wǎng)絡(luò)

注意力網(wǎng)絡(luò)是一種在機器學(xué)習(xí)和人工智能領(lǐng)域中常用的技術(shù)。注意力網(wǎng)絡(luò)能夠模仿人類注意力的行為,使模型在處理輸入數(shù)據(jù)時專注于重要的部分,忽略不相關(guān)或不重要的信息[20]。針對本文數(shù)據(jù)增強算法可能導(dǎo)致提取的特征爆炸式增長的問題,提出基于門控機制的注意力網(wǎng)絡(luò)。GAtt網(wǎng)絡(luò)能夠利用門控機制對輸入的特征進行篩選,排除無關(guān)特征的干擾,減少注意力網(wǎng)絡(luò)的復(fù)雜度,GAtt網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

由圖6可知,本文提出的門控注意力網(wǎng)絡(luò)由輸入層、門控層、注意力層和輸出層組成,其工作流程如下。

1) 計算門控參數(shù)[gt]。首先根據(jù)輸入的信號特征計算門控參數(shù),使用Sigmoid函數(shù)輸出一個[0,1]之間的值,其公式表示為:

[gt=σ(Wg?ht+bg)] (7)

式中:[Wg]和[bg]為門控層參數(shù);[σ()]為Sigmoid函數(shù)。

2) 計算注意力權(quán)重。信號特征值輸入到注意力層中,進行注意力權(quán)重的計算,可表示為:

[eti=ReLU(We?ht+Ue?xi+be)] (8)

[Ati=exp(eti) i=1Texp(eti)] (9)

式中:[We]、[Ue]、[be]表示注意力機制參數(shù);[Ati]表示注意力輸出權(quán)重。

3) 結(jié)合門控參數(shù)和注意力權(quán)重更新[ht]。將自門控參數(shù)[gt]與注意力權(quán)重[Ati]結(jié)合,以動態(tài)地調(diào)整隱藏狀態(tài)[ht],其公式為:

[ht=gt?ht+(1-gt)?i=1TAti?xi] (10)

式中[ht]表示更新后的狀態(tài)。

3" 實驗結(jié)果與討論

本實驗采用RML2016.10a數(shù)據(jù)集[21],圖7展示了部分信號的I/Q波形。

該數(shù)據(jù)集通過復(fù)雜信道后由GUN Radio生成,其數(shù)據(jù)集的采樣速率為200 kHz,最大采樣率偏移為50 Hz。并且每個信號都由128個采樣點組成,每個信號包含8個符號。整個數(shù)據(jù)集中共有220 000個信號,這些信號在信噪比范圍從-20~18 dB之間變化,提供了多樣的信號環(huán)境,可以用于評估不同噪聲條件下的通信系統(tǒng)性能[22]。

本實驗將RML2016.10a數(shù)據(jù)集中的信號樣本分成兩部分:70%的樣本用作訓(xùn)練集,30%的樣本則用作測試集。

3.1" 網(wǎng)絡(luò)的性能分析與對比實驗

為驗證混合數(shù)據(jù)增強算法和門控注意力網(wǎng)絡(luò)對最終分類識別結(jié)果的影響,本文實驗分別進行MDA+CBNet+GAtt、MDA+CBNet、CBNet處理,其分類準確率如圖8所示。

通過圖8可以看出,使用CBNet網(wǎng)絡(luò)進行調(diào)制信號識別的識別準確率為85.7%。加入混合數(shù)據(jù)增強算法(MDA)后,網(wǎng)絡(luò)可以提取的信號特征變多,網(wǎng)絡(luò)的識別準確率提升了2.5%,為88.2%。繼續(xù)加入門控注意力網(wǎng)絡(luò)(GAtt)后,提取的信號特征被賦予權(quán)重,網(wǎng)絡(luò)的識別準確率比MDA+CBNet提升了4.1%,為92.3%。

本文將CBNet與CNN[13]、CNN?LSTM[23]、ResNet[24]、DenseNet[15]和KNN[25]進行對比實驗,信號識別準確率如圖9所示。

通過圖9可知,CBNet的信號識別準確率最高,為85.7%。與其他網(wǎng)絡(luò)模型對比,KNN識別準確率最低為69%;CNN網(wǎng)絡(luò)能夠通過提取信號特征來識別信號類型,信號的識別準確率有所提高,為72.9%;ResNet、DenseNet網(wǎng)絡(luò)模型擁有更深層的網(wǎng)絡(luò)和更多的參數(shù),因此對樣本信號有更好的識別率,分別為81.0%和80.1%;CNN?LSTM網(wǎng)絡(luò)模型使用CNN和LSTM提取信號的空間特征和時間特征,此類特征符合調(diào)制信號的特性,因此識別率較高,為82.2%。

3.2" 網(wǎng)絡(luò)模型混淆矩陣分析

為研究不同網(wǎng)絡(luò)模塊對各個調(diào)制類型的分類識別率,SNR=-10 dB時CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖10所示。

從圖10可以看出,在SNR=-10 dB時,四種網(wǎng)絡(luò)模型對各類調(diào)制信號的分類準確率都較低,調(diào)制信號的混淆現(xiàn)象嚴重。但相比于圖10b)~圖10d),CBNet的混淆矩陣的對角線更加清晰,因此識別準確率更好。

當(dāng)SNR=10 dB時,CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖11所示。

由圖11可知,在SNR=10 dB時,各類網(wǎng)絡(luò)模型均能識別出絕大部分的調(diào)制信號類型。與對比算法相比,CBNet網(wǎng)絡(luò)模型對各類信號的識別率更好,因此總的識別準確率更高。

最后實驗得出了在SNR=18 dB高信噪比下,本文網(wǎng)絡(luò)模型的混淆矩陣如圖12所示。

由圖12看出,本文提出的CBNet對大部分的調(diào)制信號都有很好的識別率。但是,單純使用神經(jīng)網(wǎng)絡(luò)提取QAM16和QAM64的信號特征不足以清晰地分辨出兩類調(diào)制信號,因此兩類調(diào)制信號的識別率略低。

4" 結(jié)" 語

本文提出了基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,該算法通過混合數(shù)據(jù)增強擴充樣本信號,解決了神經(jīng)網(wǎng)絡(luò)提取信號特征不足的問題;提出雙通道神經(jīng)網(wǎng)絡(luò),解決傳統(tǒng)網(wǎng)絡(luò)難以充分提取樣本信號的時間特征和空間特征的問題;最后提出門控注意力網(wǎng)絡(luò),解決了因信號樣本增加可能導(dǎo)致提取特征暴增的問題。實驗表明,本文提出的算法能夠明顯提高信號的識別準確率。未來工作方向在于提高QAM16信號和QAM64信號的識別準確率。

注:本文通訊作者為許雪。

參考文獻

[1] YANG Y W, GAO F F, MA X L, et al. Deep learning?based channel estimation for doubly selective fading channels [J]. IEEE access, 2019, 7: 36579?36589.

[2] LI L Q, XIE L H, HUANG Z P, et al. A deep learning based method for blind recognition of LDPC codes [C]// Information Communication Technologies Conference. [S.l.: s.n.], 2021: 112?116.

[3] SHEN B X, WU H Y, HUANG C. Blind recognition of channel codes via deep learning [C]// IEEE Global Conference on Signal and Information Processing. New York: IEEE, 2019: 1?5.

[4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5998?6008.

[5] KONG W, YANG Q, JIAO X, et al. A transformer?based CTDNN structure for automatic modulation recognition [C]// Proceedings of 2021 7th International Conference on Computer and Communications. [S.l.: s.n.], 2021: 159?163.

[6] CAI J J, GAN F M, CAO X H, et al. Signal modulation classification based on the transformer network [J]. IEEE transactions on cognitive communications and networking, 2022, 8(3): 1348?1357.

[7] LUAN S Y, GAO Y R, CHEN W, et al. Automatic modulation classification: Decision tree based on error entropy and global?local feature?coupling network under mixed noise and fading channels [J]. IEEE wireless communications letters, 2022, 11(8): 1703?1707.

[8] ZHENG Q H, ZHAO P H, WANG H J, et al. Fine?grained modulation classification using multi?scale radio transformer with dual?channel representation [J]. IEEE communications letters, 2022, 26(6): 1298?1302.

[9] WEST N E, O′SHEA T J. Deep architectures for modulation recognition [C]// 2017 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN). New York: IEEE, 2017: 1?6.

[10] 張嘉文.基于深度學(xué)習(xí)的數(shù)字信號調(diào)制識別技術(shù)的研究[D].成都:電子科技大學(xué),2022.

[11] 郭業(yè)才,王慶偉.基于截斷遷移與并行殘差網(wǎng)絡(luò)的調(diào)制識別算法[J].系統(tǒng)仿真學(xué)報,2022,34(9):2009?2018.

[12] 李瑞佳.面向復(fù)雜結(jié)構(gòu)數(shù)據(jù)的聚類算法研究[D].成都:電子科技大學(xué),2022.

[13] O′SHEA T J, HOYDIS J. An introduction to deep learning for the physical layer [J]. IEEE transactions on cognitive communications and networking, 2017, 3(4): 563?575.

[14] MEI F, CHEN H, LEI Y K. Blind recognition of forward error correction codes based on a depth distribution algorithm [J]. Symmetry, 2021, 13(6): 1?24.

[15] HONG D H, ZHANG Z L, XU X D. Automatic modulation classification using recurrent neural networks [C]// 2017 3rd IEEE International Conference on Computer and Communications (ICCC). New York: IEEE, 2017: 695?700.

[16] SHEN B X, HUANG C, XU W J, et al. Blind channel codes recognition via deep learning [J]. IEEE journal on selected areas in communications, 2021, 39(8): 2421?2433.

[17] LI S D, ZHOU J, HUANG Z P, et al. Recognition of error correcting codes based on CNN with block mechanism and embedding [J]. Digital signal processing, 2021, 111: 1?8.

[18] SURIYA M, SUMITHRA M G. Overview of spectrum sharing and dynamic spectrum allocation schemes in cognitive radio networks [C]// 2022 8th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2022: 934?937.

[19] KERECHANIN Y, BOBROV P. EEG denoising using wavelet packet decomposition and independent component analysis [C]// Fourth International Conference Neurotechnologies and Neurointerfaces (CNN). New York: IEEE, 2022: 68?70.

[20] KUMAR Y, SHEORAN M, JAJOO G, et al. Automatic modulation classification based on constellation density using deep learning [J]. IEEE communications letters, 2020, 24(6): 1275?1278.

[21] O′SHEA T J, WEST N. Radio machine learning dataset generation with GNU radio [C]// Proceedings of the GNU Radio Conference. [S.l.: s.n.], 2016: 69?74.

[22] 郭業(yè)才,姚文強.基于信噪比分類網(wǎng)絡(luò)的調(diào)制信號分類識別算法[J].電子與信息學(xué)報,2022,44(10):3507?3515.

[23] YAO T Y, CHAI Y, WANG S, et al. Radio signal automatic modulation classification based on deep learning and expert features [C]// 2020 IEEE 4th Information Technology, Networking, Electronic and Automation Control Conference (ITNEC). New York: IEEE, 2020: 1225?1230.

[24] WEI Z X, JU Y, SONG M. A method of underwater acoustic signal classification based on deep neural network [C]// 2018 5th International Conference on Information Science and Control Engineering (ICISCE). New York: IEEE, 2018: 46?50.

[25] ZHU Z C, ASLAM M W, NANDI A K. Genetic algorithm optimized distribution sampling test for M?QAM modulation classification [J]. Signal processing, 2014, 94: 264?277.

猜你喜歡
空間特征
遼寧省地名空間特征與旅游利用研究
超效率模型下成渝城市群城市效率研究
基于GIS的長沙市星級飯店空間特征研究
中國城市產(chǎn)業(yè)結(jié)構(gòu)與CO2排放的耦合關(guān)系
我國區(qū)域性技術(shù)交易市場活躍度的比較研究
商(2016年32期)2016-11-24 15:46:20
冀中南地區(qū)農(nóng)村居民電子商務(wù)應(yīng)用及其空間影響
空間特征信息對時距知覺的影響
基于MapGIS的國土資源檔案系統(tǒng)的設(shè)計
長株潭紅色旅游共生發(fā)展的空間特征
湖北省水田旱地空間特征及其梯度分布成因研究
牟定县| 宁南县| 芜湖市| 谢通门县| 偃师市| 隆化县| 澄江县| 丹巴县| 蓬莱市| 鄂托克前旗| 子长县| 江口县| 东宁县| 中山市| 富民县| 博客| 龙门县| 万盛区| 华宁县| 安康市| 甘洛县| 岳阳市| 梨树县| 新河县| 莎车县| 舟山市| 内黄县| 桓台县| 延吉市| 敖汉旗| 大理市| 娄烦县| 德保县| 佛坪县| 昆山市| 子洲县| 余姚市| 清涧县| 南京市| 化隆| 敦化市|