国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)的長(zhǎng)短期記憶網(wǎng)絡(luò)的調(diào)制識(shí)別算法

2021-02-05 08:04任思睿
關(guān)鍵詞:雙層信噪比準(zhǔn)確率

任思睿,黃 銘

(云南大學(xué) 信息學(xué)院,云南 昆明 650500)

隨著無(wú)線通信技術(shù)的發(fā)展,無(wú)線電資源逐漸成為一種重要的國(guó)家戰(zhàn)略資源. 為了保證無(wú)線通信安全運(yùn)作,無(wú)線通信調(diào)制識(shí)別技術(shù)越來(lái)越重要[1]. 然而傳統(tǒng)的無(wú)線通信調(diào)制識(shí)別技術(shù)主要基于操作員的部分先驗(yàn)知識(shí)進(jìn)行人工監(jiān)測(cè)與分類(lèi),在通訊環(huán)境愈發(fā)復(fù)雜的今天,傳統(tǒng)的調(diào)制識(shí)別技術(shù)已經(jīng)很難滿(mǎn)足實(shí)際應(yīng)用的需要.

自動(dòng)調(diào)制分類(lèi)(Automatic Modulation Classification,AMC)技術(shù)在這樣的背景下應(yīng)運(yùn)而生,且在軍民領(lǐng)域都有了許多的實(shí)際應(yīng)用[1-7]. 在軍事領(lǐng)域上,準(zhǔn)確識(shí)別通信信號(hào)的調(diào)制類(lèi)型往往意味著能通過(guò)估計(jì)參數(shù)來(lái)設(shè)計(jì)解調(diào)模型,截獲關(guān)鍵信息,從而可以有針對(duì)性地進(jìn)行軍事行動(dòng)規(guī)劃和部署. 在民用領(lǐng)域中,常有不法分子通過(guò)黑廣播等方式傳播有害信息,相關(guān)部門(mén)可以利用通信信號(hào)調(diào)制識(shí)別技術(shù)區(qū)分正常信號(hào)和非法信號(hào),從而打擊非法無(wú)線電活動(dòng),保障無(wú)線通信安全. 在實(shí)際運(yùn)用中,自動(dòng)調(diào)制分類(lèi)技術(shù)可以設(shè)計(jì)一個(gè)自動(dòng)區(qū)分識(shí)別調(diào)制方式的分類(lèi)器,通過(guò)調(diào)制方式來(lái)確定信號(hào)種類(lèi),監(jiān)測(cè)無(wú)線信號(hào)是否存在自然干擾與人為干擾.

AMC技術(shù)可以分為兩類(lèi)[1],基于決策論和基于特征. 基于決策論的AMC技術(shù)主要以最大似然準(zhǔn)則為依據(jù)來(lái)分類(lèi)調(diào)制方式,理論上這類(lèi)方法有著最低的誤判率,然而在處理大量數(shù)據(jù)時(shí)計(jì)算復(fù)雜度過(guò)大是這類(lèi)方法的一個(gè)嚴(yán)重缺陷,同時(shí)由于設(shè)計(jì)或選擇似然函數(shù)時(shí)需要足夠的先驗(yàn)知識(shí),該類(lèi)算法在信道狀況未知或信道存在時(shí)偏、頻偏等誤差時(shí)識(shí)別精度會(huì)明顯下降[8-9]. 基于特征的AMC技術(shù)由于近年來(lái)機(jī)器學(xué)習(xí)的迅速發(fā)展而逐漸成為主流,主要是針對(duì)調(diào)制方式的一些特征量,通過(guò)監(jiān)督或非監(jiān)督學(xué)習(xí)的方式訓(xùn)練神經(jīng)網(wǎng)絡(luò),最后進(jìn)行分類(lèi)與識(shí)別[10-11]. 當(dāng)算法選擇適當(dāng)時(shí),基于特征的AMC技術(shù)具有易于實(shí)施且準(zhǔn)確率比較理想的優(yōu)勢(shì),然而現(xiàn)有的一些基于神經(jīng)網(wǎng)絡(luò)的調(diào)制識(shí)別算法也存在一些問(wèn)題. 文獻(xiàn)[12]將數(shù)字調(diào)制信號(hào)通過(guò)連續(xù)波多普勒(Continuous Wave Doppler,CWD)架構(gòu)進(jìn)行時(shí)頻域的轉(zhuǎn)換,生成信號(hào)對(duì)應(yīng)的二維灰度圖,再以這些灰度圖為數(shù)據(jù)集使用一種有自適應(yīng)性的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練并分類(lèi)信號(hào),該方法需要生成信號(hào)的灰度圖,這在實(shí)際應(yīng)用中會(huì)增加系統(tǒng)結(jié)構(gòu)的復(fù)雜度. 文獻(xiàn)[13]采用了一種基于雙層卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的分類(lèi)器,該模型的輸入為時(shí)域的同相正交(I/Q)信號(hào),可以識(shí)別不同信噪比下的調(diào)制信號(hào),由于CNN模型對(duì)長(zhǎng)時(shí)間依賴(lài)序列的分類(lèi)任務(wù)表現(xiàn)不佳,其識(shí)別精度很難達(dá)到最優(yōu). 文獻(xiàn)[14]設(shè)計(jì)了一種基于雙層長(zhǎng)短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)的自動(dòng)調(diào)制分類(lèi)模型,經(jīng)過(guò)參數(shù)調(diào)優(yōu)與對(duì)比實(shí)驗(yàn),該模型與支持向量機(jī) (Support Vector Machine,SVM)、隨機(jī)森林、K近鄰和淺層CNN等多種算法相比,對(duì)信噪比為?20~20 dB的多種數(shù)字調(diào)制信號(hào)有著更高的識(shí)別準(zhǔn)確率,對(duì)比發(fā)現(xiàn)使用雙層LSTM結(jié)構(gòu)網(wǎng)絡(luò)可以達(dá)到最優(yōu)分類(lèi)性能,但該算法時(shí)間代價(jià)較高.

以上分析可以看出,在基于深度學(xué)習(xí)的自動(dòng)調(diào)制識(shí)別中,使用CNN模型需要將信號(hào)原始特征轉(zhuǎn)換為圖形特征再進(jìn)行訓(xùn)練,而LSTM模型是一種遞歸網(wǎng)絡(luò),常用的圖形處理器(Graphic Process Unit ,GPU)并行加速方法無(wú)法有效提高其訓(xùn)練效率,導(dǎo)致隨著輸入數(shù)據(jù)量的增大與層數(shù)的加深,訓(xùn)練時(shí)間會(huì)大大增加. 在自然語(yǔ)言處理領(lǐng)域中,常用注意力(Attention)機(jī)制讓模型能在訓(xùn)練中更加關(guān)注那些比較重要的特征,減少模型中的參數(shù)量. 為了充分利用LSTM網(wǎng)絡(luò)在處理長(zhǎng)時(shí)間依賴(lài)序列的優(yōu)勢(shì),同時(shí)改善LSTM網(wǎng)絡(luò)在處理大數(shù)據(jù)集時(shí)較低的訓(xùn)練效率,本文設(shè)計(jì)了一種基于LSTM網(wǎng)絡(luò)與Attention機(jī)制的無(wú)線通信信號(hào)調(diào)制識(shí)別算法. 該算法可以有效學(xué)習(xí)信號(hào)的原始特征,避免實(shí)際應(yīng)用中無(wú)謂的系統(tǒng)資源浪費(fèi);同時(shí)Attention機(jī)制的引入使本文設(shè)計(jì)的算法相較于其他基于LSTM網(wǎng)絡(luò)的調(diào)制識(shí)別算法在訓(xùn)練效率與準(zhǔn)確率上都有明顯地提升.

1 LSTM 網(wǎng)絡(luò)以及 Attention 機(jī)制原理

1.1 LSTM 網(wǎng)絡(luò)基本原理LSTM 網(wǎng)絡(luò)通過(guò)引入一種自循環(huán)的機(jī)制,使梯度可以隨時(shí)間變化而變化,從而讓自循環(huán)過(guò)程中的權(quán)重根據(jù)輸入信息動(dòng)態(tài)地變化. 通過(guò)門(mén)控該種自循環(huán)的權(quán)重,累積的時(shí)間尺度也能進(jìn)行動(dòng)態(tài)變化. 這種特性讓LSTM網(wǎng)絡(luò)即使在固定參數(shù)的情況下,其累積的時(shí)間尺度也會(huì)隨著輸入序列的變化而改變[15].

與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)在每個(gè)時(shí)間步都重寫(xiě)記憶不同,LSTM會(huì)將其學(xué)習(xí)到的重要特征保存為長(zhǎng)期記憶,并根據(jù)學(xué)習(xí)的進(jìn)行選擇性的保留、更新或者遺忘已保存的長(zhǎng)期記憶,而在多次迭代中權(quán)重始終很小的特征則會(huì)被網(wǎng)絡(luò)視為短期記憶并最終被遺忘. 這種機(jī)制使得重要的特征信息會(huì)隨著迭代的進(jìn)行一直傳遞,讓網(wǎng)絡(luò)在處理樣本具有長(zhǎng)時(shí)間依賴(lài)性的分類(lèi)任務(wù)中有著更好的性能表現(xiàn)[16-17].

LSTM與普通循環(huán)網(wǎng)絡(luò)類(lèi)似,每個(gè)單元具有相同的輸入與輸出,但同時(shí)LSTM也有更多的參數(shù)和控制信息流動(dòng)的門(mén)控單元系統(tǒng). LSTM最重要的組成部分是狀態(tài)單元其自環(huán)的權(quán)重由遺忘門(mén)控制(其中t代表時(shí)刻,i代表第i個(gè)神經(jīng)元),由sigmoid單元設(shè)置為0和1之間的值. 相應(yīng)的前向傳播公式為

其中,x(t)是當(dāng)前輸入向量,h(t)是當(dāng)前隱藏層輸出向量分別是偏置、輸入權(quán)重和遺忘門(mén)的循環(huán)權(quán)重.

1.2 Attention 機(jī)制Ashish Vaswani等于 2017 年提出了在深度學(xué)習(xí)中加入Attention機(jī)制以提升模型性能[18],Attention借鑒了人腦鑒別事物的特點(diǎn),即專(zhuān)注于事物的某些顯著特征,模糊一些不重要的細(xì)節(jié),這使人將有限的注意力放在大腦認(rèn)為重要的地方,提高工作效率,因此Attention機(jī)制最初主要被應(yīng)用于圖像識(shí)別的領(lǐng)域. 經(jīng)過(guò)一段時(shí)間的研究發(fā)現(xiàn),Attention機(jī)制與常見(jiàn)于自然語(yǔ)言處理領(lǐng)域的Encoder-Decoder模型能很好地結(jié)合,Encoder-Decoder模型具有較強(qiáng)的通用性,Attention機(jī)制開(kāi)始在不同的領(lǐng)域流行[19-20]. Attention模型一般結(jié)構(gòu)如圖1[21]所示.

圖 1 Attention 模型一般結(jié)構(gòu)Fig. 1 Standard structure of Attention model

圖1中X1、X2、X3、X4由原始數(shù)據(jù)A、B、C、D經(jīng)過(guò)編碼得到,經(jīng)過(guò)Z0的Attention權(quán)值向量加權(quán)后再歸一化產(chǎn)生C0并將其輸入到解碼器,其中通過(guò)一種對(duì)齊概率的計(jì)算方式得到,這種函數(shù)一般稱(chēng)為評(píng)分函數(shù). 文中使用最常用的乘積矩陣,其公式為[20]

2 算法與模型設(shè)計(jì)

在基于特征的AMC技術(shù)中常用的深度學(xué)習(xí)主要是CNN模型與LSTM模型. CNN模型由于對(duì)長(zhǎng)時(shí)間依賴(lài)序列處理能力不佳,基于CNN模型的調(diào)制識(shí)別技術(shù)一般需要先將信號(hào)原始特征轉(zhuǎn)換為圖像特征再傳入CNN進(jìn)行學(xué)習(xí),這在實(shí)際應(yīng)用中往往會(huì)大幅增加系統(tǒng)架構(gòu)的復(fù)雜程度. 而基于LSTM的調(diào)制識(shí)別技術(shù)在輸入數(shù)據(jù)量增加或者網(wǎng)絡(luò)層數(shù)增加時(shí)訓(xùn)練的時(shí)間代價(jià)會(huì)迅速增長(zhǎng).

近年來(lái)開(kāi)始將Attention機(jī)制運(yùn)用于信號(hào)識(shí)別鄰域的應(yīng)用[22],深層網(wǎng)絡(luò)在學(xué)習(xí)調(diào)制信號(hào)頻譜經(jīng)過(guò)圖像編碼產(chǎn)生的灰度圖特征后對(duì)MPSK、FSK、AM、QPSK信號(hào)進(jìn)行了分類(lèi),其對(duì)信噪比為?20 dB的信號(hào)分類(lèi)準(zhǔn)確率為48%,對(duì)信噪比為20 dB的信號(hào)分類(lèi)準(zhǔn)確率為98%.

本文設(shè)計(jì)了一種帶有Attention機(jī)制的LSTM網(wǎng)絡(luò)無(wú)線通信調(diào)制分類(lèi)算法. 首先通過(guò)LSTM網(wǎng)絡(luò)提取信號(hào)的原始特征,再利用Attention機(jī)制為經(jīng)過(guò)LSTM提取的特征向量分配注意力權(quán)重,將那些較為“顯著”的特征集合進(jìn)行高度總結(jié)后輸入分類(lèi)器產(chǎn)生分類(lèi)結(jié)果. Attention機(jī)制的引入可以使模型在訓(xùn)練時(shí)始終關(guān)注那些較為“顯著”的特征,不僅可以降低訓(xùn)練時(shí)的參數(shù)從而提升訓(xùn)練效率,還能提升模型的分類(lèi)準(zhǔn)確率.

本文設(shè)計(jì)的算法的結(jié)構(gòu)框圖如圖2所示.

圖 2 結(jié)合 Attention 機(jī)制的 LSTM 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 LSTM network structure combined with Attention mechanism

輸入層讀取數(shù)據(jù)集中的數(shù)據(jù)向量并將其傳入網(wǎng)絡(luò).

LSTM層主要負(fù)責(zé)接收樣本數(shù)據(jù)并從樣本數(shù)據(jù)中學(xué)習(xí)特征信息. 其神經(jīng)元個(gè)數(shù)為128,采用L2正則化,L2范數(shù)為0.001,同時(shí)設(shè)置網(wǎng)絡(luò)為雙向網(wǎng)絡(luò),即后一個(gè)神經(jīng)元的狀態(tài)值也會(huì)反向傳回前一個(gè)節(jié)點(diǎn).

Attention層主要負(fù)責(zé)對(duì)LSTM層中學(xué)習(xí)到的特征集合分配相應(yīng)的注意力權(quán)重. 該層采用sigmoid激活函數(shù),評(píng)分函數(shù)為乘積矩陣. 由于數(shù)據(jù)集中向量個(gè)數(shù)也是輸入向量的一個(gè)維度,我們希望這一維的每一個(gè)向量單獨(dú)擁有一個(gè)Attention權(quán)重,即每一個(gè)輸入都對(duì)應(yīng)Attention層的一個(gè)輸出,因此需要將Attention層放在LSTM層之后.

全連接層將得到的特征向量經(jīng)過(guò)softmax分類(lèi)器歸一化產(chǎn)生分類(lèi)概率并將其輸出.

本文訓(xùn)練模型時(shí)損失函數(shù)為交叉熵?fù)p失函數(shù),優(yōu)化器采用AdamOptimizer,具體的訓(xùn)練過(guò)程如下所示:

步驟 1初始化模型中的超參數(shù),其中學(xué)習(xí)率設(shè)定為 0.000 1;

步驟 2將訓(xùn)練集中的154 000個(gè)樣本用大小為256的batch進(jìn)行切分;

步驟 3隨機(jī)選取一個(gè)生成的batch送入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;

步驟 4LSTM層對(duì)輸入網(wǎng)絡(luò)的batch中的數(shù)據(jù)進(jìn)行特征提取,再由Attention層為提取后的特征圖設(shè)置注意力權(quán)重,最終全連接層根據(jù)注意力加權(quán)后的特征圖生成分類(lèi)向量并由softmax分類(lèi)器輸出分類(lèi)結(jié)果;

步驟 5根據(jù)交叉熵?fù)p失函數(shù)計(jì)算本次訓(xùn)練的損失;

步驟 6Adam優(yōu)化器根據(jù)本次訓(xùn)練結(jié)果更新網(wǎng)絡(luò)的超參數(shù);

步驟 7將步驟3~6定義為模型的一次迭代過(guò)程,重復(fù)這種迭代直至模型的分類(lèi)準(zhǔn)確率在多次迭代后已不再發(fā)生明顯的改變.

3 實(shí)驗(yàn)與結(jié)果分析

3.1 數(shù)據(jù)集選擇本文使用 RadioML2016.10a 數(shù)據(jù)集[23]來(lái)驗(yàn)證本文所設(shè)計(jì)的算法,該數(shù)據(jù)集的具體參數(shù)見(jiàn)表1.

表 1 RadioML2016.10a 數(shù)據(jù)集的參數(shù)Tab. 1 The parameters of RadioML2016.10a dataset

該數(shù)據(jù)集通過(guò)GNU Radio生成,數(shù)據(jù)為涵蓋了各種被廣泛使用的調(diào)制方式的正交同相(I/Q)信號(hào),同時(shí)該數(shù)據(jù)集中的數(shù)據(jù)也存在如多徑衰落產(chǎn)生的高斯白噪聲、頻率偏移等常見(jiàn)的信道誤差,信噪比范圍廣,能較為真實(shí)地模擬各種情況的信號(hào).

3.2 實(shí)驗(yàn)與分析為了驗(yàn)證LSTM網(wǎng)絡(luò)在學(xué)習(xí)信號(hào)原始特征時(shí)是否較CNN具有優(yōu)勢(shì),使用RadioML2016.10a數(shù)據(jù)集分別訓(xùn)練文獻(xiàn)[13]提出的雙層CNN模型以及文獻(xiàn)[14]提出的雙層LSTM模型,并比較它們對(duì)不同信噪比信號(hào)的分類(lèi)準(zhǔn)確率. 本文的實(shí)驗(yàn)平臺(tái)為:Intel Corei7-8700 CPU@ 3.20GHz 的處理器; NVIDIA Geforce GTX 1070;內(nèi)存16GB.

其實(shí)驗(yàn)結(jié)果分別如圖3、圖4所示. 圖 3中CNN2模型的分類(lèi)準(zhǔn)確率在樣本信噪比為18dB時(shí)為81%,而圖4中雙層LSTM網(wǎng)絡(luò)模型在相同信噪比下的識(shí)別準(zhǔn)確率達(dá)到了89%.

圖 3 雙層CNN網(wǎng)絡(luò)在不同信噪比下的分類(lèi)準(zhǔn)確率Fig. 3 Classification accuracy of 2-layers CNN on different SNRs

圖 4 雙層LSTM網(wǎng)絡(luò)在不同信噪比下的分類(lèi)準(zhǔn)確率Fig. 4 Classification accuracy of 2-layers LSTM on different SNRs

可以看出雙層LSTM網(wǎng)絡(luò)模型的總體識(shí)別準(zhǔn)確率比雙層CNN模型有較大優(yōu)勢(shì),證實(shí)了本文選用LSTM模型作為學(xué)習(xí)信號(hào)原始特征的基準(zhǔn)模型的正確性. 接著對(duì)比雙層LSTM模型與本文設(shè)計(jì)算法的總體準(zhǔn)確率如圖5所示,可以看出在引入注意力機(jī)制后LSTM網(wǎng)絡(luò)的分類(lèi)準(zhǔn)確率在信號(hào)信噪比為18 dB時(shí)可以達(dá)到92%,可見(jiàn)本文提出的算法具有較高的分類(lèi)準(zhǔn)確率.

圖 5 帶有注意力機(jī)制的LSTM網(wǎng)絡(luò)在不同信噪比下的準(zhǔn)確率Fig. 5 Classification accuracy of Attention-based LSTM network on different SNRs

雙層CNN模型、雙層LSTM模型與本文設(shè)計(jì)模型的具體準(zhǔn)確率如表2所示,對(duì)信噪比范圍?20~18 dB的信號(hào)本文提出算法的識(shí)別準(zhǔn)確率都高于傳統(tǒng)的CNN網(wǎng)絡(luò)以及LSTM網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率.

接著對(duì)雙層LSTM網(wǎng)絡(luò)與本文設(shè)計(jì)算法的訓(xùn)練表現(xiàn)進(jìn)行了對(duì)比(圖6、圖7),可以看出在引入Attention機(jī)制后模型的泛化性能也有了一定的提升. 雙層LSTM網(wǎng)絡(luò)在迭代20次之后就出現(xiàn)了過(guò)擬合的現(xiàn)象,而帶有Attention機(jī)制的LSTM網(wǎng)絡(luò)在訓(xùn)練過(guò)程中訓(xùn)練集與測(cè)試集的擬合程度始終較好.

表 2 3 種算法在不同信噪比下的識(shí)別準(zhǔn)確率Tab. 2 Recognition accuracy of three algorithms on different SNR

圖 6 雙層 LSTM 網(wǎng)絡(luò)的訓(xùn)練表現(xiàn)Fig. 6 Training performance of 2-layers LSTM

圖 7 帶有注意力機(jī)制的LSTM網(wǎng)絡(luò)的訓(xùn)練表現(xiàn)Fig. 7 Training performance of Attention-based LSTM network

進(jìn)一步對(duì)比分析Attention機(jī)制對(duì)網(wǎng)絡(luò)訓(xùn)練效率的影響,上述3種調(diào)制識(shí)別算法的平均單次迭代時(shí)間如表3所示,可以看出Attention機(jī)制的引入減少了訓(xùn)練過(guò)程中的參數(shù)數(shù)量,降低了訓(xùn)練中的時(shí)間消耗,帶有Attention機(jī)制的LSTM網(wǎng)絡(luò)的單次迭代時(shí)間平均僅為232 s,僅為雙層LSTM模型平均單次迭代時(shí)間的一半,而雙層CNN模型由于能使用GPU有效并行加速其平均單次迭代時(shí)間最短,但準(zhǔn)確率與另外兩種算法差距較大.

表 3 3 種算法的平均單次迭代時(shí)間Tab. 3 Average single epoch time of three algorithm

綜上可以看出本文所設(shè)計(jì)的算法通過(guò)引入Attention機(jī)制,有效解決了傳統(tǒng)了基于LSTM網(wǎng)絡(luò)的調(diào)制識(shí)別技術(shù)的訓(xùn)練效率不佳的問(wèn)題,同時(shí)在識(shí)別準(zhǔn)確率上也有一定的優(yōu)勢(shì). 最后通過(guò)本文設(shè)計(jì)算法的混淆矩陣(圖8)分析其對(duì)各類(lèi)調(diào)制信號(hào)的分類(lèi)準(zhǔn)確率.可以看出在信噪比為18 dB時(shí),本文所提出的算法在區(qū)分WBFM和AM-DSB這兩種信號(hào)時(shí)比較困難,這主要是由于原始數(shù)據(jù)集中,這兩種調(diào)制方式的樣本是由實(shí)際音頻流生成,在這個(gè)過(guò)程中有一段音頻流的中斷期,導(dǎo)致這兩種調(diào)制方式的有許多相似的樣本,影響了識(shí)別的準(zhǔn)確率. 而對(duì)于AM-DSB與AM-SSB以及QAM16和QAM64這兩組信號(hào),由于調(diào)制方式較為相似,模型很難學(xué)習(xí)到能有效區(qū)分它們的特征,導(dǎo)致分類(lèi)結(jié)果存在一些誤判的情況,但本文所設(shè)計(jì)的算法對(duì)這兩組信號(hào)的總體識(shí)別準(zhǔn)確率依然在90%以上.

圖 8 信噪比為 18 dB 時(shí)帶有注意力機(jī)制的 LSTM 網(wǎng)絡(luò)的混淆矩陣Fig. 8 Confusion matrix of Attention-based LSTM with 18 dB SNR

4 總結(jié)與展望

本文旨在利用常用于圖像識(shí)別與自然語(yǔ)言處理中的Attention模型,針對(duì)性地解決調(diào)制識(shí)別中由于輸入數(shù)據(jù)維度大而造成的計(jì)算時(shí)間增長(zhǎng)和準(zhǔn)確率下降的問(wèn)題,實(shí)驗(yàn)結(jié)果表明,本文所設(shè)計(jì)算法準(zhǔn)確率對(duì)信噪比為?20~18 dB的信號(hào)識(shí)別準(zhǔn)確率較高,且本文提出的算法的時(shí)間代價(jià)與傳統(tǒng)的LSTM網(wǎng)絡(luò)模型相比較小.

由于實(shí)驗(yàn)條件限制,本文中用于實(shí)驗(yàn)的信號(hào)數(shù)據(jù)均為軟件仿真產(chǎn)生,未來(lái)應(yīng)采集真實(shí)無(wú)線電通信環(huán)境中的調(diào)制信號(hào)進(jìn)行進(jìn)一步實(shí)驗(yàn)以更好的驗(yàn)證本文提出的算法的有效性. 本文設(shè)計(jì)的算法源碼可于https://github.com/desolating/-att-lstm_mod-rec查看.

猜你喜歡
雙層信噪比準(zhǔn)確率
兩種64排GE CT冠脈成像信噪比與劑量對(duì)比分析研究
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
墨爾本Fitzroy雙層住宅
基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
次級(jí)通道在線辨識(shí)的雙層隔振系統(tǒng)振動(dòng)主動(dòng)控制
保持信噪比的相位分解反褶積方法研究