摘要: 針對(duì)用于輻射源信號(hào)識(shí)別的神經(jīng)網(wǎng)絡(luò)存在參數(shù)冗余、運(yùn)算量龐大等問(wèn)題,提出一種基于二值神經(jīng)網(wǎng)絡(luò)的輻射源信號(hào)識(shí)別方法。該方法指出利用卷積層效用值衡量神經(jīng)網(wǎng)絡(luò)卷積層的重要性,根據(jù)卷積層效用值的大小,將重要的卷積層保留為實(shí)值,其余卷積層進(jìn)行二值化處理。實(shí)驗(yàn)結(jié)果表明,在信噪比大于-9 dB時(shí),采用該方法得到的二值神經(jīng)網(wǎng)絡(luò)的信號(hào)識(shí)別準(zhǔn)確率相比于實(shí)值卷積神經(jīng)網(wǎng)絡(luò)降低了0.5%,而網(wǎng)絡(luò)參數(shù)內(nèi)存大小降低了83.4%,網(wǎng)絡(luò)運(yùn)算次數(shù)降低了83.8%,網(wǎng)絡(luò)運(yùn)算復(fù)雜度降低了85.8%,易于部署在各種硬件平臺(tái)上。
關(guān)鍵詞: 輻射源信號(hào)識(shí)別; 二值神經(jīng)網(wǎng)絡(luò); 卷積層效用值; 網(wǎng)絡(luò)復(fù)雜度
中圖分類(lèi)號(hào): TN 957.51
文獻(xiàn)標(biāo)志碼: A
DOI:10.12305/j.issn.1001-506X.2024.11.33
Radiation source signal recognition method based on binary neural networks
WANG Huifu1,2, MEI Mingfei1,2, QI Liang2, CHAI Heng3, TAO Shifei1,*
(1. School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, China; 2. Nanhu Laboratory, Jiaxing 314000, China; 3. 723 Research Institute, Shipbuilding Group Limited of China, Yangzhou 225000, China)
Abstract: In response to the issues of parameter redundancy and high computational complexity in neural networks used for radiation source signal recognition, a radiation source signal recognition method based on binary neural network is proposed. The method proposes using the utility value of the convolution layer to measure the importance of the neural network’s convolution layers. Based on the size of the utility value of the convolution layer, important convolution layers are retained as real values, while the remaining convolution layers are binarized. The experimental results show that when the signal-to-noise ratio is greater than -9 dB, the accuracy of signal recognition of the binary neural network obtained using this method is reduced by 0.5% compared to the real-valued convolutional neural network, while the network parameter memory size is reduced by 83.4%, the network computation is reduced by 83.8%, and the network computing complexity is reduced by 85.8%, and it is easy to deploy on various hardware platforms.
Keywords: radiation source signal recognition; binary neural network; convolution layer utility value; network complexity
0 引 言
輻射源信號(hào)識(shí)別是現(xiàn)代電子戰(zhàn)領(lǐng)域中的關(guān)鍵技術(shù)之一,能對(duì)截獲到的輻射源信號(hào)進(jìn)行分析和識(shí)別,為作戰(zhàn)指揮人員提供戰(zhàn)場(chǎng)態(tài)勢(shì)信息。隨著雷達(dá)體制和通信體制不斷升級(jí),電子戰(zhàn)場(chǎng)中的輻射源信號(hào)呈現(xiàn)出捷變性和高干擾的特點(diǎn),電磁頻譜變得愈加繁雜多樣,增加了輻射源信號(hào)識(shí)別的難度?;诿}沖描述字外部特征參數(shù)測(cè)量的傳統(tǒng)輻射源信號(hào)識(shí)別方法[1]效果不斷降低,無(wú)法滿(mǎn)足現(xiàn)代戰(zhàn)場(chǎng)上快速識(shí)別輻射源信號(hào)的需求。因此,輻射源信號(hào)的脈內(nèi)特征逐漸成為研究熱點(diǎn),包括時(shí)頻特征、小波包特征、小波脊頻特征等變換域特征[2]。輻射源信號(hào)的變換域特征抗噪聲干擾能力強(qiáng),具有良好的特征表達(dá)能力,然而如何自動(dòng)提取信號(hào)的深層次變換域特征成了一個(gè)新的問(wèn)題。近年來(lái),隨著深度學(xué)習(xí)的迅速發(fā)展,神經(jīng)網(wǎng)絡(luò)由于具有強(qiáng)大的特征提取能力和泛化能力,被廣泛應(yīng)用在目標(biāo)檢測(cè)、圖像分類(lèi)、語(yǔ)音識(shí)別等領(lǐng)域[3]。鑒于神經(jīng)網(wǎng)絡(luò)在特征提取方面的巨大優(yōu)勢(shì),研究人員開(kāi)始利用神經(jīng)網(wǎng)絡(luò)結(jié)合變換域特征的方法實(shí)現(xiàn)對(duì)輻射源信號(hào)的識(shí)別。文獻(xiàn)[4]采用平滑偽Wigner-Ville分布對(duì)輻射源信號(hào)進(jìn)行時(shí)頻變換,并對(duì)時(shí)頻圖進(jìn)行對(duì)稱(chēng)映射、主能量脊提取等預(yù)處理以降低噪聲干擾,最后通過(guò)預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)提升信號(hào)識(shí)別效果。文獻(xiàn)[5]利用長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)和CNN將信號(hào)時(shí)域特征和時(shí)頻域特征融合后進(jìn)行信號(hào)分類(lèi),提升了在低信噪比時(shí)的信號(hào)識(shí)別準(zhǔn)確率。文獻(xiàn)[6]提出了一種殘余注意力多尺度累積卷積網(wǎng)絡(luò),采用多尺度累積連接來(lái)提高特征利用率,有效提升了信號(hào)識(shí)別準(zhǔn)確率。文獻(xiàn)[7]將信號(hào)的時(shí)頻分布和循環(huán)頻譜相結(jié)合,實(shí)現(xiàn)多通道信號(hào)處理,通過(guò)CNN進(jìn)行特征提取,最后通過(guò)飛魚(yú)群算法來(lái)優(yōu)化網(wǎng)絡(luò)類(lèi)型、特征維數(shù)和網(wǎng)絡(luò)參數(shù)。文獻(xiàn)[8]通過(guò)卷積層將輻射源信號(hào)的時(shí)頻特征提取出來(lái)并將其編碼成脈沖序列,輸入至脈沖神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)6種輻射源信號(hào)的高效識(shí)別。
目前,大多數(shù)針對(duì)輻射源信號(hào)識(shí)別方法的關(guān)注點(diǎn)基本上都集中在提升信號(hào)識(shí)別準(zhǔn)確率上,然而準(zhǔn)確率提升的同時(shí)也帶來(lái)了信號(hào)識(shí)別模型的空間復(fù)雜度和時(shí)間復(fù)雜度過(guò)高的問(wèn)題。一個(gè)性能優(yōu)越的神經(jīng)網(wǎng)絡(luò)模型往往具有龐大的參數(shù)量和運(yùn)算量,難以部署在存儲(chǔ)資源有限的終端設(shè)備上,這在一定程度上限制了神經(jīng)網(wǎng)絡(luò)在輻射源信號(hào)識(shí)別領(lǐng)域的發(fā)展。因此,如何平衡神經(jīng)網(wǎng)絡(luò)的信號(hào)識(shí)別準(zhǔn)確率與模型復(fù)雜度成了一個(gè)亟需解決的問(wèn)題。文獻(xiàn)[9]采用深度可分離卷積代替普通卷積,參數(shù)量降低了58%,信號(hào)識(shí)別準(zhǔn)確率與普通CNN基本持平。文獻(xiàn)[10]將調(diào)制信號(hào)映射成星座圖,再利用輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNet進(jìn)行訓(xùn)練并識(shí)別。文獻(xiàn)[11]通過(guò)減小CNN的卷積核尺寸以減少參數(shù)量,并通過(guò)剪枝進(jìn)一步降低模型大小。文獻(xiàn)[12]通過(guò)模型剪枝對(duì)VGG(visual geometry group)網(wǎng)絡(luò)和AlexNet網(wǎng)絡(luò)進(jìn)行輕量化,在保證信號(hào)識(shí)別準(zhǔn)確率基本不變的情況下降低了網(wǎng)絡(luò)的復(fù)雜度。參數(shù)量化[13-19]也是一種有效的模型壓縮方法。近年來(lái),二值量化[20-24]作為網(wǎng)絡(luò)參數(shù)量化的一種極端形式,逐漸成為研究熱點(diǎn)。文獻(xiàn)[25]提出了一種基于二進(jìn)制殘差網(wǎng)絡(luò)的信號(hào)調(diào)制識(shí)別方法,有效降低了模型大小和存儲(chǔ)成本。文獻(xiàn)[26]提出了一種二值神經(jīng)網(wǎng)絡(luò)(binary neural networks, BNN),通過(guò)對(duì)卷積層的實(shí)值卷積核與輸入進(jìn)行二值化處理,并用位操作代替普通卷積運(yùn)算,以降低網(wǎng)絡(luò)參數(shù)內(nèi)存與運(yùn)算量大小。為了避免BNN的準(zhǔn)確率下降過(guò)大,文獻(xiàn)[26]將網(wǎng)絡(luò)的第一層卷積層和最后一層卷積層保留為實(shí)值,然而這種BNN結(jié)構(gòu)可能不是最優(yōu)的,因?yàn)獒槍?duì)不同的網(wǎng)絡(luò)或者不同的數(shù)據(jù)集來(lái)說(shuō),第一層和最后一層卷積層并不一定總是最重要的。
針對(duì)上述問(wèn)題,本文提出一種基于BNN的輻射源信號(hào)識(shí)別方法,主要貢獻(xiàn)在于:① 提出一種衡量CNN卷積層重要性程度的方法;② 根據(jù)各層卷積層的效用值大小,確定最優(yōu)的二值化結(jié)構(gòu),對(duì)CNN進(jìn)行二值量化,構(gòu)建BNN實(shí)現(xiàn)對(duì)輻射源信號(hào)識(shí)別。
1 輻射源信號(hào)識(shí)別方法流程
圖1所示為基于BNN的輻射源信號(hào)識(shí)別方法流程圖。首先對(duì)輻射源時(shí)域信號(hào)進(jìn)行時(shí)頻變換,得到的時(shí)頻特征數(shù)據(jù)集用于訓(xùn)練實(shí)值CNN;然后計(jì)算實(shí)值CNN各層卷積層的效用值,對(duì)卷積層效用值進(jìn)行排序,將效用值較高的卷積層作為目標(biāo)卷積層,再將目標(biāo)卷積層進(jìn)行二值化,得到的BNN最后進(jìn)行訓(xùn)練用于輻射源信號(hào)識(shí)別。
本文采用的實(shí)值CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,類(lèi)似于VGG16的結(jié)構(gòu),其中每個(gè)BLOCK的結(jié)構(gòu)都為:卷積層-批歸一化(batch normalization, BN)層-激活層-池化層,其中池化層的作用為使特征圖的維度減半。因此,實(shí)值CNN一共有6層卷積層,卷積核的大小均為3×3,第一層全連接層的輸出節(jié)點(diǎn)為256,最后一層全連接層的輸出節(jié)點(diǎn)為8,輸出8種輻射源信號(hào)對(duì)應(yīng)的識(shí)別概率值。
2 信號(hào)時(shí)頻特征提取
特征提取是輻射源信號(hào)識(shí)別的關(guān)鍵步驟,提取出有效的特征能大大增加信號(hào)識(shí)別的成功率。輻射源信號(hào)一般屬于非平穩(wěn)信號(hào),時(shí)域或頻域上受噪聲影響大,難以提取到通用的信號(hào)特征。時(shí)頻分析可以將時(shí)域信號(hào)映射到二維的時(shí)頻域,在時(shí)間和頻率兩個(gè)維度上分析信號(hào),更能反映出信號(hào)的本質(zhì)特性。時(shí)頻分析通過(guò)核函數(shù)來(lái)描述信號(hào)在不同時(shí)間頻率的能量密度和強(qiáng)度,獲得信號(hào)的時(shí)頻分布,目前已有的時(shí)頻分布主要包括Choi-Williams分布[27-28](Choi-Williams distribation, CWD)、平滑偽Wigner-Ville分布和減少分布交叉項(xiàng)分布等。其中,CWD分布具有很高的時(shí)頻分辨率與較強(qiáng)的交叉干擾項(xiàng)抑制能力,因此本文采用CWD分布對(duì)輻射源信號(hào)進(jìn)行時(shí)頻分析,其核函數(shù)如下:
式中:*表示取共軛。本文通過(guò)構(gòu)建BNN實(shí)現(xiàn)對(duì)8種輻射源信號(hào)進(jìn)行識(shí)別,包括單頻(continue wave, CW)信號(hào)、線(xiàn)性調(diào)頻(linear frequency modulation, LFM)信號(hào)、偶二次調(diào)頻(even quadratic frequency modulation, EQFM)信號(hào)、余弦調(diào)制(sinusoidal frequency modulation, SFM)信號(hào)、跳頻信號(hào)(COSTAS)、二進(jìn)制相移鍵控(binary phase shift keying, BPSK)信號(hào)、LFM-頻率編碼混合調(diào)制信號(hào)(LFM-frequency shift keying, LFM_FSK)和LFM_SFM。
3 BNN
3.1 卷積層二值化原理
BNN來(lái)源于神經(jīng)網(wǎng)絡(luò)低比特量化中的極端情況,二值量化的目的是將網(wǎng)絡(luò)的卷積層權(quán)重和激活值用二值矩陣來(lái)表示,采用位運(yùn)算來(lái)代替普通卷積運(yùn)算,減少運(yùn)算次數(shù)。本文采用文獻(xiàn)[26]中提出的二值量化算法與訓(xùn)練策略,利用尺度因子與二值權(quán)重的乘積來(lái)近似實(shí)值權(quán)重,并將激活值也進(jìn)行二值化,得到BNN。
假設(shè)I表示CNN卷積層的輸入,W表示卷積核的參數(shù),則卷積層的操作可以用I*W來(lái)表示。卷積層二值化即用一個(gè)二值卷積核來(lái)代替實(shí)值卷積核W,即有W≈αB,代入卷積層操作公式,可得:I*W≈(I⊕B)α,式中⊕為不帶乘法操作的卷積運(yùn)算。為了求出α和B,使W和αB最接近,得到以下優(yōu)化目標(biāo):
α*,B*=arg minW-αB2(3)
展開(kāi)式(3)可得
α*,B*=arg min(α2BTB-2αWTB+WTW)(4)
式中:BTB、WTW都是常量,因此可知B的最優(yōu)解即為W的符號(hào),即
B*=sign(W)(5)
對(duì)式(4)進(jìn)行求導(dǎo),令其導(dǎo)數(shù)等于0,將式(5)代入,可得α的最優(yōu)解為
α=1nW1(6)
式中:n為卷積核一維展開(kāi)之后的維度大小。
將卷積層的輸入進(jìn)行二值化后,普通卷積運(yùn)算可以轉(zhuǎn)化成位運(yùn)算。假設(shè)I表示CNN卷積層的輸入,W表示卷積核的參數(shù),那么希望得到β,H,α,B,使得XTW≈βHTαB,即用βHT近似表示輸入X,H和B均為二值矩陣,α和β為實(shí)數(shù)。為了求出β和H,得到以下優(yōu)化目標(biāo):
β*,H*=arg minX⊙W-βαH⊙B(7)
類(lèi)似地,可以得到β和H的最優(yōu)解為
β*=1nX1(8)
H*=sign(X)(9)
3.2 卷積層參數(shù)量和運(yùn)算次數(shù)分析
對(duì)于實(shí)值CNN而言,網(wǎng)絡(luò)各層的參數(shù)都存儲(chǔ)為全精度浮點(diǎn)數(shù),每個(gè)參數(shù)占用32 bit的內(nèi)存空間,當(dāng)卷積層進(jìn)行二值化后,每個(gè)參數(shù)占用1 bit的內(nèi)存空間,實(shí)際中每個(gè)卷積核會(huì)對(duì)應(yīng)一個(gè)縮放因子α,這里可以忽略不計(jì),如圖3所示。因此,卷積層進(jìn)行二值量化后,卷積層參數(shù)內(nèi)存占用空間能減小31倍左右。
當(dāng)實(shí)值CNN卷積層的參數(shù)和輸入進(jìn)行二值化后,普通卷積操作能用異或非XNOR和按位相加(bitcount)進(jìn)行替代,具體操作如圖4所示。在現(xiàn)場(chǎng)可編程門(mén)陣列(field programmable gate array, FPGA)或者專(zhuān)用集成電路(application specific integrated circuit, ASIC)芯片中,XNOR和bitcount的操作可以設(shè)計(jì)在一個(gè)時(shí)鐘周期內(nèi)完成,所以將一次二值卷積操作統(tǒng)計(jì)為一次運(yùn)算。因此,卷積層進(jìn)行二值化后,運(yùn)算次數(shù)能減小K2-1倍,其中K為卷積核大小。在本文中,神經(jīng)網(wǎng)絡(luò)的運(yùn)算次數(shù)用乘加累積運(yùn)算次數(shù)(multiply accumulate operations, MACs)表示。
3.3 卷積層效用值
卷積層效用值定義為該層卷積層所有卷積核效用值的平均值,卷積核效用值表征該卷積核的重要性。本文采用下式作為衡量卷積核效用值的準(zhǔn)則[29]:
min|C(D|W′)-C(D|W)| s.t.W′0≤B(10)
式中:C表示損失函數(shù);W和W′分別表示完整的卷積核和去除掉某一卷積核后的參數(shù);D表示模型的輸入和輸出;B表示權(quán)重參數(shù)中非零參數(shù)的個(gè)數(shù)。
一般認(rèn)為卷積核的參數(shù)和由該卷積核得到的特征圖對(duì)損失函數(shù)的影響是等價(jià)的[29],即下式成立:
式中:Wi為某卷積核的參數(shù);hi為該卷積核對(duì)應(yīng)的特征圖。因此式(10)可以寫(xiě)成
式中:C(D,hi=0)表示去除掉某特征圖時(shí)的損失函數(shù)值;C(D,hi)表示沒(méi)有去除該特征圖時(shí)的損失函數(shù)值。
為了避免繁瑣的運(yùn)算,采用文獻(xiàn)[29]中的方法對(duì)式(12)進(jìn)行處理,將C(D,hi)在hi=0處一階泰勒展開(kāi),舍去余項(xiàng),即有
將式(13)代入式(12),有
式中:μ(hi)表示某個(gè)卷積核的效用值,可由其一階梯度與特征圖的乘積近似。
卷積層的效用值定義如下:
式中:k表示第k層卷積層;N表示該層卷積層的卷積核數(shù)量;μi由式(14)計(jì)算得到。卷積層效用值表征卷積層的重要性程度,效用值越高的卷積層其重要性程度也越高。
3.4 網(wǎng)絡(luò)結(jié)構(gòu)
CNN的一般基本塊結(jié)構(gòu)為:卷積層-BN層-激活層-池化層,而對(duì)于BNN來(lái)說(shuō),在二值激活后進(jìn)行池化會(huì)丟失大量的特征信息。例如,在二值激活后輸出的特征元素為-1或者+1,經(jīng)過(guò)最大池化后大多數(shù)特征元素都變成了+1。因此,BNN將池化層放在卷積層之后,此外在二值化激活之前采用BN層對(duì)輸入進(jìn)行歸一化處理,確保輸入數(shù)據(jù)保持零均值分布。因此,BNN一般的基本塊結(jié)構(gòu)為BN層-二值激活層-二值卷積層-池化層,結(jié)構(gòu)如圖5所示。本文對(duì)圖2所示的CNN中卷積層效用值較低的四層卷積層與第一層全連接層進(jìn)行二值化,按照?qǐng)D5所示調(diào)整目標(biāo)層的基本塊順序,得到BNN。
4 實(shí)驗(yàn)仿真與結(jié)果分析
4.1 實(shí)驗(yàn)平臺(tái)
本文實(shí)驗(yàn)環(huán)境配置如下:在Windows11平臺(tái)下采用Pycharm2021.1.3作為神經(jīng)網(wǎng)絡(luò)的搭建平臺(tái);Python版本為3.8;輻射源信號(hào)數(shù)據(jù)集由軟件仿真生成;深度學(xué)習(xí)框架為Pytorch1.13.1;神經(jīng)網(wǎng)絡(luò)的訓(xùn)練在NVIDIA GeForce GTX2080 GPU上進(jìn)行;系統(tǒng)處理器為Intel Core(TM)i7-10700K CPU@3.8 GHz。
4.2 輻射源信號(hào)數(shù)據(jù)集仿真
本文對(duì)8種脈內(nèi)調(diào)制類(lèi)型的輻射源信號(hào)進(jìn)行仿真,脈寬為τ=2 μs,采樣率fs=400 MHz,各信號(hào)的具體參數(shù)取值如表1所示,為了增強(qiáng)輻射源信號(hào)數(shù)據(jù)集的多樣性,所有參數(shù)均在取值范圍內(nèi)隨機(jī)選取。信噪比范圍為-9~3 dB,步長(zhǎng)設(shè)置為3 dB,每個(gè)信噪比下每類(lèi)信號(hào)各隨機(jī)生成800個(gè)脈沖,其中600個(gè)脈沖用于訓(xùn)練集,200個(gè)脈沖用于測(cè)試集。對(duì)脈沖信號(hào)進(jìn)行CWD時(shí)頻變換和時(shí)頻圖像預(yù)處理,生成相應(yīng)的數(shù)據(jù)集。
4.3 卷積層效用值分析
首先采用第4.2節(jié)中的輻射源信號(hào)數(shù)據(jù)集對(duì)實(shí)值CNN進(jìn)行訓(xùn)練,超參數(shù)設(shè)置如表2所示。
CNN訓(xùn)練收斂后,CNN對(duì)輻射源信號(hào)測(cè)試集的總體信號(hào)識(shí)別準(zhǔn)確率為91.82%,網(wǎng)絡(luò)的乘加運(yùn)算次數(shù)為5.21×108 MACs。通過(guò)式(13)計(jì)算CNN各層卷積層的效用值來(lái)量化其重要性程度,并對(duì)各卷積層效用值進(jìn)行歸一化,結(jié)果如表3所示。由結(jié)果可知,第5層與第6層卷積層的效用值最高,說(shuō)明第5層卷積層和第6層卷積層的重要性程度最高。
本文將CNN的第5層和第6層卷積層保留為實(shí)值,其余卷積層進(jìn)行二值化,微調(diào)訓(xùn)練10輪后得到BNN,此時(shí)BNN的總體信號(hào)識(shí)別準(zhǔn)確率為91.36%,而網(wǎng)絡(luò)的乘加運(yùn)算次數(shù)僅為8.4×107 MACs。
4.4 BNN的性能分析及對(duì)比
為了進(jìn)一步驗(yàn)證通過(guò)本文方法得到的BNN在不同信噪比下的性能,本節(jié)將分別對(duì)BNN在不同信噪比下的輻射源信號(hào)識(shí)別準(zhǔn)確率、噪聲泛化性能、網(wǎng)絡(luò)參數(shù)內(nèi)存大小、運(yùn)算量大小和運(yùn)算復(fù)雜度進(jìn)行分析,并與文獻(xiàn)[26]提出的BNN進(jìn)行對(duì)比。為了保證對(duì)比的嚴(yán)謹(jǐn)性,采用的數(shù)據(jù)集均為第4.2節(jié)中的仿真輻射源信號(hào)數(shù)據(jù)集,BNN均是針對(duì)第4.3節(jié)中的CNN進(jìn)行二值化,BNN的微調(diào)訓(xùn)練次數(shù)都為10。
4.4.1 不同信噪比下信號(hào)識(shí)別準(zhǔn)確率的對(duì)比
表4所示為不同信噪比下CNN與BNN的信號(hào)識(shí)別準(zhǔn)確率對(duì)比。由結(jié)果可知,在信噪比大于-3 dB時(shí),通過(guò)文獻(xiàn)[26]方法得到的BNN與本文方法對(duì)輻射源信號(hào)的識(shí)別準(zhǔn)確率相差不大,都保持在一個(gè)較高的水平,并且基本上接近CNN的識(shí)別準(zhǔn)確率;而在信噪比小于-3 dB時(shí),本文方法得到的BNN的識(shí)別準(zhǔn)確率要高于文獻(xiàn)[26]方法。在信噪比為-9 dB時(shí),本文方法得到的BNN的信號(hào)識(shí)別準(zhǔn)確率比文獻(xiàn)[26]方法得到的BNN提升了4.1%;在信噪比為-6 dB時(shí),本文方法得到的BNN的信號(hào)識(shí)別準(zhǔn)確率比文獻(xiàn)[26]方法得到的BNN提升了3%。
圖6所示分別為CNN和BNN針對(duì)測(cè)試集的信號(hào)識(shí)別混淆矩陣,其中信號(hào)測(cè)試集中每種信號(hào)有1 000個(gè)樣本。由圖6可知,對(duì)于每種信號(hào)來(lái)說(shuō),本文方法得到的BNN的識(shí)別準(zhǔn)確率都高于文獻(xiàn)[26]方法得到的BNN,其中識(shí)別準(zhǔn)確率提升最大的是LFM_SFM信號(hào),提升了3.2%。因此,本文方法得到的BNN相比于文獻(xiàn)[26]方法具有更強(qiáng)的特征提取與分類(lèi)能力。
4.4.2 噪聲泛化性能對(duì)比
第4.2節(jié)中采用的輻射源信號(hào)訓(xùn)練集和測(cè)試集均在信噪比分別為-9 dB、-6 dB、-3 dB、0 dB和3 dB下生成,為了驗(yàn)證本文方法得到的BNN的噪聲泛化性能,在信噪比分別為-8 dB、-5 dB、-2 dB、1 dB、4 dB條件下仿真生成輻射源信號(hào)測(cè)試集,分別測(cè)試CNN與BNN的信號(hào)識(shí)別準(zhǔn)確率,結(jié)果如表5所示。
由結(jié)果可知,在信噪比大于-2 dB時(shí),本文方法得到的BNN、文獻(xiàn)[26]方法得到的BNN信號(hào)識(shí)別準(zhǔn)確率與CNN相差不大,都保持在較高的水平;在信噪比為小于-2 dB時(shí),本文方法得到的BNN信號(hào)識(shí)別準(zhǔn)確率比文獻(xiàn)[26]方法提升了3.25%,且與CNN的信號(hào)準(zhǔn)確率差異不大,這說(shuō)明通過(guò)本文方法得到的BNN具有更好的噪聲泛化性能。
4.4.3 網(wǎng)絡(luò)參數(shù)內(nèi)存、運(yùn)算次數(shù)和運(yùn)算復(fù)雜度分析
表6所示為CNN與通過(guò)本文方法得到的BNN的參數(shù)內(nèi)存、網(wǎng)絡(luò)運(yùn)算次數(shù)和運(yùn)算復(fù)雜度的對(duì)比結(jié)果。其中,采用浮點(diǎn)運(yùn)算次數(shù)(floating-point operations, FLOPs)衡量網(wǎng)絡(luò)計(jì)算復(fù)雜度[30],對(duì)于目前大部分的中央處理器(central processing unit,CPU)或圖形處理器(graphic processing unit, GPU)來(lái)說(shuō),可以并行進(jìn)行64個(gè)二值計(jì)算(位運(yùn)算),因此BNN的FLOPs為實(shí)值運(yùn)算的次數(shù)加上二值運(yùn)算次數(shù)的1/64[31]。當(dāng)神經(jīng)網(wǎng)絡(luò)的二值化結(jié)構(gòu)確定后,BNN的參數(shù)內(nèi)存、網(wǎng)絡(luò)運(yùn)算次數(shù)和運(yùn)算復(fù)雜度均隨之確定。
由表6可知,相對(duì)于CNN來(lái)說(shuō),通過(guò)本文方法得到的BNN具有更低的參數(shù)內(nèi)存、網(wǎng)絡(luò)運(yùn)算量和運(yùn)算復(fù)雜度。其中,網(wǎng)絡(luò)參數(shù)內(nèi)存壓縮比為6.04,網(wǎng)絡(luò)運(yùn)算量壓縮比為6.21,因此本文方法得到的BNN不僅占用較低的存儲(chǔ)資源,同時(shí)能夠大幅縮短前向推理時(shí)間,適合在資源有限的終端設(shè)備上部署。
5 結(jié) 語(yǔ)
本文提出的基于BNN的輻射源信號(hào)識(shí)別方法,其創(chuàng)新點(diǎn)在于,通過(guò)衡量網(wǎng)絡(luò)每層卷積層的重要性程度,將效用值高的卷積層保留為實(shí)值,將效用值低的卷積層進(jìn)行二值量化,得到高性能的BNN,實(shí)現(xiàn)對(duì)8種輻射源信號(hào)的識(shí)別。實(shí)驗(yàn)表明,通過(guò)本文方法得到的BNN在信噪比大于-9 dB時(shí)具有與實(shí)值CNN相似的特征提取能力,信號(hào)的總體識(shí)別準(zhǔn)確率僅降低了0.5%,而網(wǎng)絡(luò)參數(shù)內(nèi)存大小和網(wǎng)絡(luò)運(yùn)算次數(shù)降低了83%左右,網(wǎng)絡(luò)的運(yùn)算復(fù)雜度降低了85.8%,大大降低了神經(jīng)網(wǎng)絡(luò)的空間和運(yùn)算復(fù)雜度。此外,本文的神經(jīng)網(wǎng)絡(luò)二值量化的方法具有一定的通用性,能夠針對(duì)任意結(jié)構(gòu)的CNN確定最優(yōu)的二值量化結(jié)構(gòu)。本文構(gòu)建的BNN能夠通過(guò)設(shè)計(jì)專(zhuān)用的算子進(jìn)行加速推理,后續(xù)將研究在FPGA上部署B(yǎng)NN,實(shí)現(xiàn)輕量化的輻射源信號(hào)識(shí)別系統(tǒng)。
參考文獻(xiàn)
[1]YANG H H, YANG X P, LIU S K, et al. Radar emitter multi-label recognition based on residual network[J]. Defence Technology, 2022, 18(3): 410-417.
[2]劉贏, 田潤(rùn)瀾, 王曉峰. 基于深層卷積神經(jīng)網(wǎng)絡(luò)和雙譜特征的雷達(dá)信號(hào)識(shí)別方法[J]. 系統(tǒng)工程與電子技術(shù), 2019, 41(9): 1998-2005.
LIU Y, TIAN R L, WANG X F. Radar signal recognition method based on deep convolutional neural network and bispectral features[J]. Systems Engineering and Electronics, 2019, 41(9): 1998-2005.
[3]MUHAMMAD Y S, WANG J H, XV M M, et al. Ship detection based on deep learning using SAR imagery: a systematic literature review[J]. Soft Computing, 2023, 27(1): 63-84.
[4]YAO Y, WANG Z H. Radar signal recognition based on time-frequency and CNN preprocessing[J]. Journal of Detection and Control, 2018, 40(6): 99-105.
[5]SHI L M, YANG C Z. Recognition method of radar signal mo-dulation method based on deep network[J]. Journal of Ordnance Equipment Engineering, 2021, 42(6): 190-193, 218.
[6]崔邦彥, 田潤(rùn)瀾, 王東風(fēng), 等. 基于注意力機(jī)制和改進(jìn)CLDNN的雷達(dá)輻射源識(shí)別[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(5): 1224-1231.
CUI B Y, TIAN R L, WANG D F, et al. Radar emitter identification based on attention mechanism and improved CLDNN[J]. Systems Engineering and Electronics, 2021, 43(5): 1224-1231.
[7]GAO J P, WANG X, WU R W, et al. A new modulation recognition method based on flying fish swarm algorithm[J]. IEEE Access, 2021, 9: 76689-76706.
[8]TAO S F, XIAO S, GONG S, et al. Recognition of electromagnetic signals based on the spiking convolutional neural network[J]. Wireless Communications and Mobile Computing, 2022, 2022: 2395996.
[9]MUHAMMAD U, LEE J A. AMC-IoT: automatic modulation classification using efficient convolutional neural networks for low powered IoT devices[C]∥Proc.of the International Confe-rence on Information and Communication Technology Convergence, 2020: 288-293.
[10]WANG T Y, JIN Y H. Modulation recognition based on lightweight neural networks[C]∥Proc.of the 13th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics, 2020: 468-472.
[11]ZHANG F X, LUO C B, XV J L, et al. An efficient deep learning model for automatic modulation recognition based on parameter estimation and transformation[J]. IEEE Communications Letters, 2021, 25(10): 3287-3290.
[12]WANG N, LIU Y X, MA L, et al. Multidimensional CNN-LSTM network for automatic modulation classification[J]. Electronics, 2021, 10(14): 1649.
[13]權(quán)宇, 李志欣, 張燦龍, 等. 融合深度擴(kuò)張網(wǎng)絡(luò)和輕量化網(wǎng)絡(luò)的目標(biāo)檢測(cè)模型[J]. 電子學(xué)報(bào), 2020, 48(2): 390-397.
QUAN Y, LI Z X, ZHANG C L, et al. Fusing deep dilated convolutions network and light-weight network for object detection[J]. ACTA Electonica Sinica, 2020, 48(2): 390-397.
[14]WANG Z W, ZHENG Q, LU J W, et al. Deep hashing with active pairwise supervision[C]∥Proc.of the European Confe-rence on Computer Vision, 2020: 522-538.
[15]WANG Z W, XIAO H, LU J W, et al. Generalizable mixed-precision quantization via attribution rank preservation[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2021: 2-9.
[16]GONG R H, LIU X L, JIANG S H, et al. Differentiable soft quantization: bridging full-precision and low-bit neural networks[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 4852-4861.
[17]YANG J W, SHEN X, XING J, et al. Quantization networks[C]∥ Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 7308-7316.
[18]ULLRICH K, MEEDS E, WELLING M, et al. Soft weight sharing for neural network compression[C]∥Proc.of the International Conference on Learning Representations, 2017.
[19]ZHANG D Q, YANG J L, YE D Q, et al. LQ-nets: learned quantization for highly accurate and compact deep neural networks[C]∥Proc.of the European Conference on Computer Vision, 2018: 365-382.
[20]QIN H T, GONG R H, LIU X L, et al. Binary neural networks: a survey[J]. Pattern Recognition, 2020, 105: 1737-1746.
[21]CHEN T L, ZHANG Z Y, OUYANG X, et al. “BNN-BN=?”: training binary neural networks without batch normalization[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 4619-4629.
[22]SHEN Z Q, LIU Z C, QIN J, et al. S2-BNN: bridging the gap between self-supervised real and 1-bit neural networks via guided distribution calibration[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 2165-2174.
[23]XUE P, LU Y, CHANG J F, et al. Self-distribution binary neural networks[J]. Applied Intelligence, 2022, 52(12): 13870-13882.
[24]WANG Z W, LU J W, WU Z Y, et al. Learning efficient binarized object detectors with information compression[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 2022, 44(6): 3082-3095.
[25]JI H, XU W Y, GAN L, et al. Modulation recognition based on lightweight residual network via binary quantization[C]∥Proc.of the 7th International Conference on Computer and Communications, 2021: 154-158.
[26]RASTEGARI M, ORDONEZ V, REDMON J, et al. Xnor-net: imagenet classification using binary convolutional neural networks[C]∥Proc.of the European Conference on Computer Vision, 2016: 525-542.
[27]HUANG D K, YAN X P, HAO X H, et al. Low SNR multi-emitter signal sorting and recognition method based on low-order cyclic statistics CWD time-frequency images and the YOLOv5 deep learning model[J]. Sensors, 2022, 22(20): 7783.
[28]肖帥, 龔帥閣, 李想, 等. FPGA平臺(tái)輕量化卷積神經(jīng)網(wǎng)絡(luò)輻射源信號(hào)識(shí)別方法[J]. 計(jì)算技術(shù)與自動(dòng)化, 2023, 42(4): 140-146.
XIAO S, GONG S G, LI X, et al. Emitter signal identification method with lightweight CNN on FPGA platform[J]. Computing Technology and Automation, 2023, 42(4): 140-146.
[29]PAVLO M, STEPHEN T, TERO K, et al. Pruning convolutional neural networks for resource efficient inference[EB/OL]. [2023-05-31]. https:∥arxiv.org/abs/1611.06440.
[30]BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends in Machine Learning, 2011, 3(1): 1-122.
[31]王子為, 魯繼文, 周杰. 基于自適應(yīng)梯度優(yōu)化的二值神經(jīng)網(wǎng)絡(luò)[J]. 電子學(xué)報(bào), 2023, 51(2): 257-266.
WANG Z W, LU J W, ZHOU J. Learning adaptive gradients for binary neural networks[J]. ACTA Electonica Sinica, 2023, 51(2): 257-266.
作者簡(jiǎn)介
王慧賦(1998—),男,碩士研究生,主要研究方向?yàn)檩椛湓葱盘?hào)識(shí)別、深度學(xué)習(xí)。
梅明飛(2000—),男,碩士研究生,主要研究方向?yàn)槔走_(dá)目標(biāo)識(shí)別、深度學(xué)習(xí)。
齊 亮(1981—),男,高級(jí)工程師,碩士,主要研究方向?yàn)闊o(wú)線(xiàn)通信技術(shù)、信號(hào)智能識(shí)別技術(shù)。
柴 恒(1982—),男,高級(jí)工程師,碩士,主要研究方向?yàn)殡娮觽刹煸O(shè)計(jì)。
陶詩(shī)飛(1987—),男,副教授,碩士,主要研究方向?yàn)槔走_(dá)偵察、目標(biāo)識(shí)別、電磁隱身技術(shù)。