国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于特征融合的自動(dòng)調(diào)制識(shí)別方案設(shè)計(jì)*

2020-12-23 06:11陳昱帆李淑豐彭云飛
通信技術(shù) 2020年10期
關(guān)鍵詞:特征提取卷積精度

陳昱帆,邵 尉,李淑豐,彭云飛

(陸軍工程大學(xué),江蘇 南京 210007)

0 引言

隨著無(wú)線電通信技術(shù)的發(fā)展,電磁環(huán)境日益復(fù)雜多變,無(wú)線電信號(hào)急劇增多,信號(hào)的調(diào)制方式也日趨復(fù)雜多樣。因此一個(gè)以數(shù)據(jù)為驅(qū)動(dòng)的高精度調(diào)制識(shí)別方法對(duì)于無(wú)線電監(jiān)測(cè)等部門來(lái)說(shuō)是至關(guān)重要的。然而傳統(tǒng)的以人工特征提取為核心的調(diào)制識(shí)別算法不僅無(wú)法利用大量涌現(xiàn)的通信信號(hào)數(shù)據(jù),而且識(shí)別精度也不夠理想。因此,基于深度學(xué)習(xí)的識(shí)別方法是目前自動(dòng)調(diào)制識(shí)別(automatic modulation classification,AMC) 領(lǐng)域的研究熱點(diǎn)。

隨著深度學(xué)習(xí)的發(fā)展,科學(xué)技術(shù)的各個(gè)領(lǐng)域都有了明顯的進(jìn)步,人們的生活發(fā)生了巨大的變化。特別是在自然語(yǔ)言處理(natural language processing,NLP) 和計(jì)算機(jī)視覺(jué)(computer vision,CV) 領(lǐng)域,深度學(xué)習(xí)表現(xiàn)出了良好的性能。近年來(lái),許多研究人員將深度學(xué)習(xí)方法用于解決無(wú)線通信中的各種問(wèn)題,并取得了一定的成功?;谏疃葘W(xué)習(xí)的自動(dòng)調(diào)制識(shí)別算法不僅克服了傳統(tǒng)方法無(wú)法利用大量通信數(shù)據(jù)的缺點(diǎn),而且使得通信系統(tǒng)可以很好地識(shí)別復(fù)雜多樣的調(diào)制方式,并取得良好的分類表現(xiàn)。作為無(wú)線信號(hào)自動(dòng)調(diào)制分類的一種典型方法,傳統(tǒng)的機(jī)器學(xué)習(xí)算法如神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)(Support Vector Machine,SVM)可用于特征識(shí)別和調(diào)制模式分類。與SVM 等需要人工提取特征的機(jī)器學(xué)習(xí)方法相比,研究人員發(fā)現(xiàn)多層卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN) 可以達(dá)到更高的分類精度[1]。O’shea 等人比較了幾種深度神經(jīng)網(wǎng)絡(luò)在調(diào)制識(shí)別中的性能,首次提出分類精度不受網(wǎng)絡(luò)深度的限制[2]。文獻(xiàn)[3]提出了一種基于小樣本的卷積調(diào)制自相關(guān)網(wǎng)絡(luò),該分類模型不僅節(jié)省了大量的計(jì)算開(kāi)銷,同時(shí)實(shí)現(xiàn)了在小樣本條件下的高識(shí)別水平。

Hao Wu 等人在文獻(xiàn)[4]中分別提取了調(diào)制信號(hào)的星座圖和循環(huán)譜作為對(duì)數(shù)據(jù)的預(yù)處理,并將這兩種特征作為雙通道CNN 的輸入,在計(jì)算復(fù)雜度較低的情況下達(dá)到了良好的分類效果。而S.Rajendran 等人在文獻(xiàn)[5]中提出將IQ 數(shù)據(jù)轉(zhuǎn)換為幅度相位信息(Amplitude phase,AP)之后,使用簡(jiǎn)單的長(zhǎng)短時(shí)記憶(Long Short-Term Memory,LSTM)模型就能達(dá)到很好的精度,該模型不需要人工提取星座圖和高階循環(huán)矩等專家特征,即可從訓(xùn)練數(shù)據(jù)中得到信號(hào)的時(shí)域幅值和相位信息。在開(kāi)源數(shù)據(jù)集RML2016.10a[6]數(shù)據(jù)集測(cè)試表明,在0-20dB 的信噪比條件下,該模型的平均分類準(zhǔn)確率接近90%。該文進(jìn)一步探討了LSTM 模型在可變符號(hào)速率場(chǎng)景中的效用。證明了基于LSTM 的模型可以很好地學(xué)習(xí)變長(zhǎng)時(shí)域序列的表示,這對(duì)于不同碼率調(diào)制信號(hào)的分類是有用的。也能在大型分布式低成本傳感器節(jié)點(diǎn)網(wǎng)絡(luò)中實(shí)現(xiàn)調(diào)制分類的LSTM 模型的實(shí)例化。

圖1 基于特征融合的AMC 方案圖

用于訓(xùn)練的通信數(shù)據(jù)是時(shí)間序列信號(hào),其中CNN 主要能夠較好地捕獲多組信號(hào)數(shù)據(jù)之間的特征,但是無(wú)法很好地學(xué)習(xí)到每一組信號(hào)內(nèi)部的數(shù)據(jù)的前后關(guān)聯(lián)性,LSTM 則擅長(zhǎng)學(xué)習(xí)到每一組信號(hào)內(nèi)部的前后相關(guān)性。因此CNN 和LSTM 對(duì)于AMC 而言是具有互補(bǔ)性的。對(duì)于調(diào)制信號(hào)而言,能夠雙向提取數(shù)據(jù)的語(yǔ)義依賴更加有利于捕獲到信號(hào)的調(diào)制信息。然而LSTM 只能單向提取信號(hào)的語(yǔ)義信息,雙向長(zhǎng)短時(shí)記憶(Bi-directional Long Short-Term Memory,BiLSTM)不僅具有與LSTM 相同的優(yōu)點(diǎn),而且可以對(duì)信號(hào)數(shù)據(jù)進(jìn)行雙向語(yǔ)義信息提取,有效地提取全局瞬時(shí)特征。針對(duì)AMC,本文設(shè)計(jì)了一個(gè)特征融合方案如圖1 所示,方案包含兩個(gè)分支模型:基于注意力機(jī)制的雙向長(zhǎng)短時(shí)記憶模型(Attention mechanism based BiLSTM,AMb BiLSTM)與基于多尺度特征提取技術(shù)的卷積神經(jīng)網(wǎng)絡(luò)(Multi-scale feature extraction CNN,MFE CNN)。AMb BiLSTM 首先從IQ 數(shù)據(jù)中提取幅度相位信息,并使用結(jié)合了注意力機(jī)制(Attention mechanism,AM)的BiLSTM進(jìn)行瞬時(shí)特征提取,這一分支主要負(fù)責(zé)提取調(diào)制信號(hào)內(nèi)部的語(yǔ)義信息。MFE CNN 首先使用CNN 分別提取數(shù)據(jù)的淺層特征和深層特征,從而實(shí)現(xiàn)多尺度特征提取。這一分支主要負(fù)責(zé)提取同一調(diào)制方式的多組信號(hào)之間的重復(fù)特征(Local repeat features),然后將兩分支提取到的特征進(jìn)行融合并得到最終的分類結(jié)果。

圖2 AMb BiLSTM-AP 模型圖

1 AMb BiLSTM-AP

在AMC 中,LSTM 和注意機(jī)制的結(jié)合具有良好的性能。LSTM 處理后的一些隱狀態(tài)輸出更好的學(xué)會(huì)了信號(hào)的調(diào)制信息。因此,設(shè)計(jì)的注意機(jī)制可以使所學(xué)習(xí)的調(diào)制信息的隱藏狀態(tài)獲得更高的權(quán)值,從而有效地提高所提的方案的性能。圖2 中更加直觀形象地描述了AMb BiLSTM-AP 模型,其中模型的第一部分是幅度相位信息提取模塊,主要負(fù)責(zé)從IQ 數(shù)據(jù)中提取幅度相位信息,第二部分是AMb BiLSTM,該部分主要負(fù)責(zé)對(duì)從幅度相位信息中提取出該信號(hào)所屬調(diào)制方式所包含的特征。

1.1 幅度相位信息提取

在AMC 研究領(lǐng)域,很多研究者嘗試了各種數(shù)據(jù)預(yù)處理方法,其中對(duì)IQ 數(shù)據(jù)進(jìn)行人工特征提取包含了提取星座圖[7,8]、高階循環(huán)譜[9]等方法,對(duì)識(shí)別率的提高帶來(lái)了很大的幫助,同時(shí)這些方法也很好地解決了QAM16 和QAM64 易混淆的問(wèn)題。但是較為復(fù)雜的預(yù)處理過(guò)程難免引入較高的計(jì)算復(fù)雜度。幅度相位信息的提取實(shí)際上是一種數(shù)據(jù)預(yù)處理方法。文獻(xiàn)[5]指出不同的調(diào)制方式會(huì)體現(xiàn)在不同的幅度和相位信息中,這也是提取幅度相位信息進(jìn)行訓(xùn)練的依據(jù)。相較于人工特征提取,幅度相位信息的提取更加簡(jiǎn)單易行,幾乎不會(huì)帶來(lái)多余的參數(shù)和計(jì)算復(fù)雜度。假設(shè)一組數(shù)據(jù)樣本的長(zhǎng)度為N,所提方案首先將IQ 信號(hào)轉(zhuǎn)換為幅度相位信息,其中幅度為:

其中Ii與Qi表示樣本中第i個(gè)數(shù)據(jù),Ai表示第i個(gè)數(shù)據(jù)的幅度。接下來(lái)需要進(jìn)行L2 范數(shù)歸一化,其中第i個(gè)數(shù)據(jù)的幅度的L2 范數(shù)規(guī)定為:

自此,完成了第一步幅度相位信息的提取。

1.2 AMb BiLSTM

LSTM 是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)。一個(gè)LSTM 單元具有三種類型的門,遺忘門有條件地決定從單元中丟棄一些信息,輸入門有條件地決定從輸入中更新內(nèi)存狀態(tài)的值,輸出門則有條件地進(jìn)行輸出。通過(guò)添加這三種門控機(jī)制,使得LSTM 能夠很好地學(xué)習(xí)到訓(xùn)練數(shù)據(jù)的瞬時(shí)特征,學(xué)習(xí)到訓(xùn)練數(shù)據(jù)的前后關(guān)聯(lián)性。同時(shí)LSTM 也解決了長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題,因此LSTM 在長(zhǎng)序列中會(huì)有更好的表現(xiàn)[10]。BiLSTM 有著LSTM 的諸多優(yōu)勢(shì),同時(shí)它又能夠雙向提取數(shù)據(jù)的語(yǔ)義信息,對(duì)于AMC,能夠提取到信號(hào)的全局語(yǔ)義信息更加有利于識(shí)別率的提升,因此BiLSTM 更加適合于AMC。

注意力機(jī)制最初被用于機(jī)器翻譯[11],現(xiàn)在已成為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一個(gè)重要概念。深度學(xué)習(xí)中的注意力機(jī)制從本質(zhì)上講和人類的選擇性視覺(jué)注意力機(jī)制類似,核心目標(biāo)也是從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息。在人工智能領(lǐng)域,注意力機(jī)制已成為神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的重要組成部分,并在自然語(yǔ)言處理、統(tǒng)計(jì)學(xué)習(xí)、語(yǔ)音和計(jì)算機(jī)等領(lǐng)域有著大量的應(yīng)用。對(duì)于AMC 而言,LSTM 的引入使得模型很好地捕獲到調(diào)制信號(hào)的語(yǔ)義特征。假設(shè)輸入進(jìn)入BiLSTM 的數(shù)據(jù)長(zhǎng)度為T,輸入為:

接下來(lái)實(shí)現(xiàn)注意力機(jī)制,給出可訓(xùn)練參數(shù)向量為W1,偏置為b,則向量H變換為向量K:

其中W2n也是一個(gè)可訓(xùn)練參數(shù)向量,αn是一個(gè)長(zhǎng)度為T 的向量,則αnt表示第t個(gè)LSTM 的隱藏狀態(tài)的權(quán)值,所有權(quán)值之和為1:

通過(guò)訓(xùn)練得到權(quán)重向量之后,對(duì)LSTM 輸出的隱藏狀態(tài)進(jìn)行加權(quán),則輸出的向量cn為:

2 MFE CNN

多尺度技術(shù)在目標(biāo)檢測(cè),圖像識(shí)別等領(lǐng)域有著廣泛的應(yīng)用,該技術(shù)能夠很好地提升目標(biāo)檢測(cè)準(zhǔn)確率和圖像識(shí)別率。而IQ 數(shù)據(jù)本身可以表示成為星座圖,如圖3 給出了十一種調(diào)制方式的IQ 數(shù)據(jù)在SNR=18dB 時(shí)的星座圖,因此可以使用處理圖像的方式對(duì)IQ 數(shù)據(jù)進(jìn)行處理。CNN 在多尺度技術(shù)的實(shí)現(xiàn)中主要有兩個(gè)主要途徑:

圖3 IQ 數(shù)據(jù)在SNR=18dB 時(shí)的星座圖

(1)第一種方法是將訓(xùn)練數(shù)據(jù)進(jìn)行不同尺度的縮放,然后對(duì)每層圖片提取不同尺度的特征,從而得到特征圖,最后將每個(gè)尺度的特征都進(jìn)行單獨(dú)預(yù)測(cè),該方法是改變輸入數(shù)據(jù)的尺度從而提取不同尺度的特征。該方法的特點(diǎn)是不同尺度的特征可以包含豐富的語(yǔ)義信息,精度相較于不使用該方法有提高,但是運(yùn)算速度相對(duì)較慢。

(2)第二種方法是采用多個(gè)不同卷積核大小的CNN 進(jìn)行特征提取,同時(shí)利用CNN 提取不同層的特征然后進(jìn)行合并,使得模型突破了CNN 的局部感受野從而具有更大的感受野。該方法的特點(diǎn)是可以將淺層特征與高層特征進(jìn)行融合,使得模型感受野加大從而提高分類精度。在卷積神經(jīng)網(wǎng)絡(luò)的每一個(gè)卷積層上,卷積核在局部接受域內(nèi)很好地融合了特征通道的空間上的信息,使得淺層卷積神經(jīng)網(wǎng)絡(luò)具有很好的局部感受野,能學(xué)習(xí)到更好地局部特征,隨著網(wǎng)絡(luò)的加深,淺層特征經(jīng)過(guò)一系列的非線性激活函數(shù)和下采樣操作,使得卷積神經(jīng)網(wǎng)絡(luò)的深層特征具有較好的全局感受野。而近期的神經(jīng)網(wǎng)絡(luò)模型的發(fā)展過(guò)程也表明了網(wǎng)絡(luò)模型的提取特征能力可以通過(guò)在網(wǎng)絡(luò)模型中精準(zhǔn)的嵌入相應(yīng)學(xué)習(xí)機(jī)制來(lái)改善,目前已有的改進(jìn)技術(shù)有谷歌的Inception 系列的網(wǎng)絡(luò)模型,Inception 模塊通過(guò)在網(wǎng)絡(luò)結(jié)構(gòu)中嵌入多尺度特征提取方法來(lái)使得網(wǎng)絡(luò)模型能夠得到性能的提升。受到該思想的啟發(fā),所提方案擬在分類器中融合多尺度的信息,首先想要分類器具有較好的全局感受野但是由于自動(dòng)調(diào)制識(shí)別任務(wù)中輸入的信號(hào)序列本身包含了調(diào)制信息,而調(diào)制信息具有局部相關(guān)性,所以淺層網(wǎng)絡(luò)提取的局部特征也是需要關(guān)注的,因此本文設(shè)計(jì)的MFE CNN 使用第二種多尺度融合技術(shù)。

3 參數(shù)設(shè)置與仿真分析

3.1 數(shù)據(jù)集簡(jiǎn)介與參數(shù)設(shè)計(jì)

為了方便評(píng)價(jià)和驗(yàn)證本文所提出方案模型的性能,本文采用開(kāi)源無(wú)線電數(shù)據(jù)集RML2016.10a 進(jìn)行實(shí)驗(yàn),數(shù)據(jù)集包中包含有8PSK,AM-DSB,AM-SSB,BPSK,CFPSK,GFSK,PAM4,QAM16,QAM64,QPSK,WBFM 這十一種調(diào)制方式,信號(hào)數(shù)據(jù)被采樣為IQ數(shù)據(jù),共有220000 組。數(shù)據(jù)集的信噪比范圍從-20dB到18dB,間隔為2dB。每一組調(diào)制信號(hào)的數(shù)據(jù)格式為2×128。數(shù)據(jù)采集中,信道環(huán)境模擬添加了中心頻率偏移,采樣率偏移,加性高斯白噪聲,多徑衰落等的影響。值得注意的是,數(shù)據(jù)集在產(chǎn)生的時(shí)候,為了便于應(yīng)用在深度學(xué)習(xí)框架中,作者將每一組的128 個(gè)樣本向量縮放到單位能量,能量歸一化不僅消除了模擬產(chǎn)生的特征,還使得不同調(diào)制方式的信號(hào)都能取得相同的平均功率。

對(duì)于AMb BiLSTM 模型,首先設(shè)置一層BiLSTM,同時(shí)設(shè)置cell 個(gè)數(shù)為128。對(duì)于MFE CNN,在每一個(gè)卷積層之前添加Zero Padding 層,尺寸為0×2。設(shè)置{Conv1,Conv2,Conv3,Conv4,Conv5}五個(gè)卷積層的卷積核尺寸分別為1×3,1×8,1×8,1×1,1×8。卷積核個(gè)數(shù)統(tǒng)一設(shè)置為50,每一個(gè)卷積層中使用激活函數(shù)為ReLU,設(shè)置dropout 值為0.5。

3.2 仿真分析

本文首先將數(shù)據(jù)處理為幅度相位信息并作為訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練。在實(shí)驗(yàn)過(guò)程中對(duì)比了一層LSTM,添加注意力機(jī)制的一層LSTM,一層BiLSTM 和添加注意力機(jī)制的一層BiLSTM。本文沒(méi)有選擇增加更多的層數(shù),因?yàn)樵跁r(shí)間序列信號(hào)的處理上,LSTM 層數(shù)的增加會(huì)帶來(lái)時(shí)間開(kāi)銷和內(nèi)存開(kāi)銷的指數(shù)級(jí)增長(zhǎng)。在實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn)兩層LSTM 帶來(lái)了參數(shù)量的大幅度增加而沒(méi)有帶來(lái)更高的精度。當(dāng)LSTM 的層數(shù)超過(guò)了三層,層與層之間的梯度消失情況變得非常明顯,導(dǎo)致靠近輸入層的LSTM 層更新迭代放緩,收斂效果和效率急劇下降,甚至非常容易進(jìn)入局部最小的困境。

本文進(jìn)行實(shí)驗(yàn)證明對(duì)于AMC,BiLSTM 的效果好于LSTM。圖4 給出了單層LSTM 與單層BiLSTM的性能對(duì)比,從圖4 可以看出在信噪比高于0dB 時(shí),單層BiLSTM 性能好于單層LSTM。由細(xì)節(jié)圖可以看出,單層BiLSTM 的最高精度比單層LSTM 高出0.52%。實(shí)驗(yàn)結(jié)果表明,BiLSTM 能有效提取調(diào)制信號(hào)的上下文信息,有助于分析信號(hào)的調(diào)制類型。

圖4 單層LSTM 與單層BiLSTM 的性能對(duì)比圖

圖5 給出了基于注意力機(jī)制的一層LSTM,基于注意力機(jī)制的一層BiLSTM,一層LSTM 和一層BiLSTM 四種模型的分類精度對(duì)比。從圖中可以看出注意力機(jī)制的引入導(dǎo)致分類性能明顯提高,當(dāng)信噪比處于0dB 到18dB 之間時(shí),基于注意力機(jī)制的一層LSTM 平均分類精度達(dá)到90.34%,而基于注意力機(jī)制的一層BiLSTM 平均分類精度達(dá)到90.76%。從最高精度對(duì)比來(lái)看,基于注意力機(jī)制的一層BiLSTM 最高可達(dá)到92.09%的精度,而基于注意力機(jī)制的一層LSTM 的最高分類精度為91.92%。因此設(shè)置基于注意力機(jī)制的一層BiLSTM。

圖5 不同模型的分類精度曲線圖

本文設(shè)計(jì)的特征融合方案中使用CNN 的主要目的是提取信號(hào)之間的Local repeat features。圖6給出了MFE CNN 與CNN 在AMC 上的性能表現(xiàn),從曲線圖中可以看出MFE CNN 在整個(gè)信噪比區(qū)間內(nèi)都比CNN 表現(xiàn)更加好,其中MFE CNN 最高分類精度達(dá)到85.64%,而CNN 的最高精度只有84.21%。結(jié)果表明,多尺度特征提取技術(shù)對(duì)分類性能的提高有直接的幫助,也更加有利于提取信號(hào)之間的Local repeat features。

圖6 MFE CNN 與CNN 的性能對(duì)比圖

圖7 Feature fusion-based AMC Scheme 與現(xiàn)有模型的性能對(duì)比圖

上述實(shí)驗(yàn)對(duì)特征融合方案的兩分支模型進(jìn)行了分析,給出了本文所選模型的依據(jù)。圖7 給出了本文提出的特征融合方案與現(xiàn)有的四個(gè)模型CNN,LSTM,ResNet,CLDNN 在AMC 上的性能表現(xiàn)。從圖中可以看出CNN 的性能表現(xiàn)較差,最高分類精度只能達(dá)到80.2%,相較于CNN,ResNet 有著較高的精度,最高精度可以達(dá)到82.6%。而CLDNN 結(jié)合了CNN 與LSTM 進(jìn)行特征提取,最高分類精度可以達(dá)到85.8%,但是由于輸入CLDNN 的數(shù)據(jù)為原始IQ 數(shù)據(jù)所以LSTM 提取特征的效果較差。對(duì)于LSTM 模型,由CLDNN 的經(jīng)驗(yàn)不再使用原始IQ數(shù)據(jù)進(jìn)行訓(xùn)練,而使用幅度相位信息進(jìn)行訓(xùn)練,得到的性能表現(xiàn)較好,最高精度達(dá)到了91.8%。而由于CLDNN 模型的第一部分是CNN,因此直接使用幅度相位信息進(jìn)行訓(xùn)練CLDNN 也沒(méi)有取得很好的效果。本文提出的特征融合方案很好地融合了LSTM 對(duì)幅度相位信息進(jìn)行特征提取的優(yōu)勢(shì)和CNN對(duì)IQ 數(shù)據(jù)之間的Local repeat features 提取的優(yōu)勢(shì),得到了較好的效果,最高精度達(dá)到了93.1%,圖8 給出了在SNR=16dB 時(shí)取得最高精度的混淆矩陣。

圖8 Feature fusion-based AMC Scheme 取得最高分類精度的混淆矩陣

4 結(jié)語(yǔ)

本文提出了一種基于特征融合的AMC 方案。在近期針對(duì)AMC 的研究中,深度學(xué)習(xí)已經(jīng)取得了廣泛的應(yīng)用,其中基于CNN 的模型能夠在不對(duì)數(shù)據(jù)進(jìn)行任何預(yù)處理的情況下完成分類,這類模型的特點(diǎn)在于計(jì)算復(fù)雜度較低,能夠很好地提取到信號(hào)數(shù)據(jù)之間的重復(fù)特征,但是難以提取到信號(hào)內(nèi)部的瞬時(shí)特征和語(yǔ)義信息,導(dǎo)致識(shí)別精度不夠理想。基于LSTM 的模型需要首先對(duì)數(shù)據(jù)進(jìn)行簡(jiǎn)單的預(yù)處理之后完成分類,這類模型的特點(diǎn)在于識(shí)別精度較高,能夠很好地提取信號(hào)內(nèi)部豐富的語(yǔ)義信息,但是無(wú)法較好的提取到數(shù)據(jù)之間的重復(fù)特征。本文所提的基于特征融合的AMC 方案包含AMb BiLSTM 與MFE CNN 兩種模型,前者首先從IQ 數(shù)據(jù)中提取出信號(hào)的幅度相位信息,進(jìn)而利用基于注意力機(jī)制的BiLSTM 進(jìn)行特征提取,很好地提取到了信號(hào)內(nèi)部的語(yǔ)義信息。后者則利用基于多尺度特征提取技術(shù)的CNN 模型對(duì)信號(hào)之間的重復(fù)特征進(jìn)行提取。本方案將兩者的優(yōu)勢(shì)進(jìn)行了結(jié)合。本文通過(guò)開(kāi)源數(shù)據(jù)集RML2016.10a 對(duì)方案進(jìn)行驗(yàn)證,在高信噪比條件下可以達(dá)到93.1%的高識(shí)別率。實(shí)驗(yàn)結(jié)果表明了本文所提的方案相較于傳統(tǒng)的基于CNN 和基于LSTM模型在分類精度上有明顯的提高。

猜你喜歡
特征提取卷積精度
熱連軋機(jī)組粗軋機(jī)精度控制
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計(jì)
空間目標(biāo)的ISAR成像及輪廓特征提取
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
基于特征提取的繪本閱讀機(jī)器人設(shè)計(jì)方案
從濾波器理解卷積
基于Daubechies(dbN)的飛行器音頻特征提取
基于DSPIC33F微處理器的采集精度的提高
基于傅里葉域卷積表示的目標(biāo)跟蹤算法