亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于二值神經(jīng)網(wǎng)絡(luò)的輻射源信號識別方法

        2024-11-25 00:00:00王慧賦梅明飛齊亮柴恒陶詩飛

        摘要: 針對用于輻射源信號識別的神經(jīng)網(wǎng)絡(luò)存在參數(shù)冗余、運算量龐大等問題,提出一種基于二值神經(jīng)網(wǎng)絡(luò)的輻射源信號識別方法。該方法指出利用卷積層效用值衡量神經(jīng)網(wǎng)絡(luò)卷積層的重要性,根據(jù)卷積層效用值的大小,將重要的卷積層保留為實值,其余卷積層進(jìn)行二值化處理。實驗結(jié)果表明,在信噪比大于-9 dB時,采用該方法得到的二值神經(jīng)網(wǎng)絡(luò)的信號識別準(zhǔn)確率相比于實值卷積神經(jīng)網(wǎng)絡(luò)降低了0.5%,而網(wǎng)絡(luò)參數(shù)內(nèi)存大小降低了83.4%,網(wǎng)絡(luò)運算次數(shù)降低了83.8%,網(wǎng)絡(luò)運算復(fù)雜度降低了85.8%,易于部署在各種硬件平臺上。

        關(guān)鍵詞: 輻射源信號識別; 二值神經(jīng)網(wǎng)絡(luò); 卷積層效用值; 網(wǎng)絡(luò)復(fù)雜度

        中圖分類號: TN 957.51

        文獻(xiàn)標(biāo)志碼: A

        DOI:10.12305/j.issn.1001-506X.2024.11.33

        Radiation source signal recognition method based on binary neural networks

        WANG Huifu1,2, MEI Mingfei1,2, QI Liang2, CHAI Heng3, TAO Shifei1,*

        (1. School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, China; 2. Nanhu Laboratory, Jiaxing 314000, China; 3. 723 Research Institute, Shipbuilding Group Limited of China, Yangzhou 225000, China)

        Abstract: In response to the issues of parameter redundancy and high computational complexity in neural networks used for radiation source signal recognition, a radiation source signal recognition method based on binary neural network is proposed. The method proposes using the utility value of the convolution layer to measure the importance of the neural network’s convolution layers. Based on the size of the utility value of the convolution layer, important convolution layers are retained as real values, while the remaining convolution layers are binarized. The experimental results show that when the signal-to-noise ratio is greater than -9 dB, the accuracy of signal recognition of the binary neural network obtained using this method is reduced by 0.5% compared to the real-valued convolutional neural network, while the network parameter memory size is reduced by 83.4%, the network computation is reduced by 83.8%, and the network computing complexity is reduced by 85.8%, and it is easy to deploy on various hardware platforms.

        Keywords: radiation source signal recognition; binary neural network; convolution layer utility value; network complexity

        0 引 言

        輻射源信號識別是現(xiàn)代電子戰(zhàn)領(lǐng)域中的關(guān)鍵技術(shù)之一,能對截獲到的輻射源信號進(jìn)行分析和識別,為作戰(zhàn)指揮人員提供戰(zhàn)場態(tài)勢信息。隨著雷達(dá)體制和通信體制不斷升級,電子戰(zhàn)場中的輻射源信號呈現(xiàn)出捷變性和高干擾的特點,電磁頻譜變得愈加繁雜多樣,增加了輻射源信號識別的難度?;诿}沖描述字外部特征參數(shù)測量的傳統(tǒng)輻射源信號識別方法[1效果不斷降低,無法滿足現(xiàn)代戰(zhàn)場上快速識別輻射源信號的需求。因此,輻射源信號的脈內(nèi)特征逐漸成為研究熱點,包括時頻特征、小波包特征、小波脊頻特征等變換域特征[2。輻射源信號的變換域特征抗噪聲干擾能力強,具有良好的特征表達(dá)能力,然而如何自動提取信號的深層次變換域特征成了一個新的問題。近年來,隨著深度學(xué)習(xí)的迅速發(fā)展,神經(jīng)網(wǎng)絡(luò)由于具有強大的特征提取能力和泛化能力,被廣泛應(yīng)用在目標(biāo)檢測、圖像分類、語音識別等領(lǐng)域[3。鑒于神經(jīng)網(wǎng)絡(luò)在特征提取方面的巨大優(yōu)勢,研究人員開始利用神經(jīng)網(wǎng)絡(luò)結(jié)合變換域特征的方法實現(xiàn)對輻射源信號的識別。文獻(xiàn)[4]采用平滑偽Wigner-Ville分布對輻射源信號進(jìn)行時頻變換,并對時頻圖進(jìn)行對稱映射、主能量脊提取等預(yù)處理以降低噪聲干擾,最后通過預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)提升信號識別效果。文獻(xiàn)[5]利用長短時記憶網(wǎng)絡(luò)和CNN將信號時域特征和時頻域特征融合后進(jìn)行信號分類,提升了在低信噪比時的信號識別準(zhǔn)確率。文獻(xiàn)[6]提出了一種殘余注意力多尺度累積卷積網(wǎng)絡(luò),采用多尺度累積連接來提高特征利用率,有效提升了信號識別準(zhǔn)確率。文獻(xiàn)[7]將信號的時頻分布和循環(huán)頻譜相結(jié)合,實現(xiàn)多通道信號處理,通過CNN進(jìn)行特征提取,最后通過飛魚群算法來優(yōu)化網(wǎng)絡(luò)類型、特征維數(shù)和網(wǎng)絡(luò)參數(shù)。文獻(xiàn)[8]通過卷積層將輻射源信號的時頻特征提取出來并將其編碼成脈沖序列,輸入至脈沖神經(jīng)網(wǎng)絡(luò)實現(xiàn)對6種輻射源信號的高效識別。

        目前,大多數(shù)針對輻射源信號識別方法的關(guān)注點基本上都集中在提升信號識別準(zhǔn)確率上,然而準(zhǔn)確率提升的同時也帶來了信號識別模型的空間復(fù)雜度和時間復(fù)雜度過高的問題。一個性能優(yōu)越的神經(jīng)網(wǎng)絡(luò)模型往往具有龐大的參數(shù)量和運算量,難以部署在存儲資源有限的終端設(shè)備上,這在一定程度上限制了神經(jīng)網(wǎng)絡(luò)在輻射源信號識別領(lǐng)域的發(fā)展。因此,如何平衡神經(jīng)網(wǎng)絡(luò)的信號識別準(zhǔn)確率與模型復(fù)雜度成了一個亟需解決的問題。文獻(xiàn)[9]采用深度可分離卷積代替普通卷積,參數(shù)量降低了58%,信號識別準(zhǔn)確率與普通CNN基本持平。文獻(xiàn)[10]將調(diào)制信號映射成星座圖,再利用輕量級神經(jīng)網(wǎng)絡(luò)MobileNet進(jìn)行訓(xùn)練并識別。文獻(xiàn)[11]通過減小CNN的卷積核尺寸以減少參數(shù)量,并通過剪枝進(jìn)一步降低模型大小。文獻(xiàn)[12]通過模型剪枝對VGG(visual geometry group)網(wǎng)絡(luò)和AlexNet網(wǎng)絡(luò)進(jìn)行輕量化,在保證信號識別準(zhǔn)確率基本不變的情況下降低了網(wǎng)絡(luò)的復(fù)雜度。參數(shù)量化[13-19也是一種有效的模型壓縮方法。近年來,二值量化[20-24作為網(wǎng)絡(luò)參數(shù)量化的一種極端形式,逐漸成為研究熱點。文獻(xiàn)[25]提出了一種基于二進(jìn)制殘差網(wǎng)絡(luò)的信號調(diào)制識別方法,有效降低了模型大小和存儲成本。文獻(xiàn)[26]提出了一種二值神經(jīng)網(wǎng)絡(luò)(binary neural networks, BNN),通過對卷積層的實值卷積核與輸入進(jìn)行二值化處理,并用位操作代替普通卷積運算,以降低網(wǎng)絡(luò)參數(shù)內(nèi)存與運算量大小。為了避免BNN的準(zhǔn)確率下降過大,文獻(xiàn)[26]將網(wǎng)絡(luò)的第一層卷積層和最后一層卷積層保留為實值,然而這種BNN結(jié)構(gòu)可能不是最優(yōu)的,因為針對不同的網(wǎng)絡(luò)或者不同的數(shù)據(jù)集來說,第一層和最后一層卷積層并不一定總是最重要的。

        針對上述問題,本文提出一種基于BNN的輻射源信號識別方法,主要貢獻(xiàn)在于:① 提出一種衡量CNN卷積層重要性程度的方法;② 根據(jù)各層卷積層的效用值大小,確定最優(yōu)的二值化結(jié)構(gòu),對CNN進(jìn)行二值量化,構(gòu)建BNN實現(xiàn)對輻射源信號識別。

        1 輻射源信號識別方法流程

        圖1所示為基于BNN的輻射源信號識別方法流程圖。首先對輻射源時域信號進(jìn)行時頻變換,得到的時頻特征數(shù)據(jù)集用于訓(xùn)練實值CNN;然后計算實值CNN各層卷積層的效用值,對卷積層效用值進(jìn)行排序,將效用值較高的卷積層作為目標(biāo)卷積層,再將目標(biāo)卷積層進(jìn)行二值化,得到的BNN最后進(jìn)行訓(xùn)練用于輻射源信號識別。

        本文采用的實值CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,類似于VGG16的結(jié)構(gòu),其中每個BLOCK的結(jié)構(gòu)都為:卷積層-批歸一化(batch normalization, BN)層-激活層-池化層,其中池化層的作用為使特征圖的維度減半。因此,實值CNN一共有6層卷積層,卷積核的大小均為3×3,第一層全連接層的輸出節(jié)點為256,最后一層全連接層的輸出節(jié)點為8,輸出8種輻射源信號對應(yīng)的識別概率值。

        2 信號時頻特征提取

        特征提取是輻射源信號識別的關(guān)鍵步驟,提取出有效的特征能大大增加信號識別的成功率。輻射源信號一般屬于非平穩(wěn)信號,時域或頻域上受噪聲影響大,難以提取到通用的信號特征。時頻分析可以將時域信號映射到二維的時頻域,在時間和頻率兩個維度上分析信號,更能反映出信號的本質(zhì)特性。時頻分析通過核函數(shù)來描述信號在不同時間頻率的能量密度和強度,獲得信號的時頻分布,目前已有的時頻分布主要包括Choi-Williams分布[27-28(Choi-Williams distribation, CWD)、平滑偽Wigner-Ville分布和減少分布交叉項分布等。其中,CWD分布具有很高的時頻分辨率與較強的交叉干擾項抑制能力,因此本文采用CWD分布對輻射源信號進(jìn)行時頻分析,其核函數(shù)如下:

        式中:*表示取共軛。本文通過構(gòu)建BNN實現(xiàn)對8種輻射源信號進(jìn)行識別,包括單頻(continue wave, CW)信號、線性調(diào)頻(linear frequency modulation, LFM)信號、偶二次調(diào)頻(even quadratic frequency modulation, EQFM)信號、余弦調(diào)制(sinusoidal frequency modulation, SFM)信號、跳頻信號(COSTAS)、二進(jìn)制相移鍵控(binary phase shift keying, BPSK)信號、LFM-頻率編碼混合調(diào)制信號(LFM-frequency shift keying, LFM_FSK)和LFM_SFM。

        3 BNN

        3.1 卷積層二值化原理

        BNN來源于神經(jīng)網(wǎng)絡(luò)低比特量化中的極端情況,二值量化的目的是將網(wǎng)絡(luò)的卷積層權(quán)重和激活值用二值矩陣來表示,采用位運算來代替普通卷積運算,減少運算次數(shù)。本文采用文獻(xiàn)[26]中提出的二值量化算法與訓(xùn)練策略,利用尺度因子與二值權(quán)重的乘積來近似實值權(quán)重,并將激活值也進(jìn)行二值化,得到BNN。

        假設(shè)I表示CNN卷積層的輸入,W表示卷積核的參數(shù),則卷積層的操作可以用I*W來表示。卷積層二值化即用一個二值卷積核來代替實值卷積核W,即有W≈αB,代入卷積層操作公式,可得:I*W≈(I⊕B)α,式中⊕為不帶乘法操作的卷積運算。為了求出α和B,使W和αB最接近,得到以下優(yōu)化目標(biāo):

        α*,B*=arg minW-αB2(3)

        展開式(3)可得

        α*,B*=arg min(α2BTB-2αWTB+WTW)(4)

        式中:BTB、WTW都是常量,因此可知B的最優(yōu)解即為W的符號,即

        B*=sign(W)(5)

        對式(4)進(jìn)行求導(dǎo),令其導(dǎo)數(shù)等于0,將式(5)代入,可得α的最優(yōu)解為

        α=1nW1(6)

        式中:n為卷積核一維展開之后的維度大小。

        將卷積層的輸入進(jìn)行二值化后,普通卷積運算可以轉(zhuǎn)化成位運算。假設(shè)I表示CNN卷積層的輸入,W表示卷積核的參數(shù),那么希望得到β,H,α,B,使得XTW≈βHTαB,即用βHT近似表示輸入X,H和B均為二值矩陣,α和β為實數(shù)。為了求出β和H,得到以下優(yōu)化目標(biāo):

        β*,H*=arg minX⊙W-βαH⊙B(7)

        類似地,可以得到β和H的最優(yōu)解為

        β*=1nX1(8)

        H*=sign(X)(9)

        3.2 卷積層參數(shù)量和運算次數(shù)分析

        對于實值CNN而言,網(wǎng)絡(luò)各層的參數(shù)都存儲為全精度浮點數(shù),每個參數(shù)占用32 bit的內(nèi)存空間,當(dāng)卷積層進(jìn)行二值化后,每個參數(shù)占用1 bit的內(nèi)存空間,實際中每個卷積核會對應(yīng)一個縮放因子α,這里可以忽略不計,如圖3所示。因此,卷積層進(jìn)行二值量化后,卷積層參數(shù)內(nèi)存占用空間能減小31倍左右。

        當(dāng)實值CNN卷積層的參數(shù)和輸入進(jìn)行二值化后,普通卷積操作能用異或非XNOR和按位相加(bitcount)進(jìn)行替代,具體操作如圖4所示。在現(xiàn)場可編程門陣列(field programmable gate array, FPGA)或者專用集成電路(application specific integrated circuit, ASIC)芯片中,XNOR和bitcount的操作可以設(shè)計在一個時鐘周期內(nèi)完成,所以將一次二值卷積操作統(tǒng)計為一次運算。因此,卷積層進(jìn)行二值化后,運算次數(shù)能減小K2-1倍,其中K為卷積核大小。在本文中,神經(jīng)網(wǎng)絡(luò)的運算次數(shù)用乘加累積運算次數(shù)(multiply accumulate operations, MACs)表示。

        3.3 卷積層效用值

        卷積層效用值定義為該層卷積層所有卷積核效用值的平均值,卷積核效用值表征該卷積核的重要性。本文采用下式作為衡量卷積核效用值的準(zhǔn)則[29

        min|C(D|W′)-C(D|W)| s.t.W′0≤B(10)

        式中:C表示損失函數(shù);W和W′分別表示完整的卷積核和去除掉某一卷積核后的參數(shù);D表示模型的輸入和輸出;B表示權(quán)重參數(shù)中非零參數(shù)的個數(shù)。

        一般認(rèn)為卷積核的參數(shù)和由該卷積核得到的特征圖對損失函數(shù)的影響是等價的[29,即下式成立:

        式中:Wi為某卷積核的參數(shù);hi為該卷積核對應(yīng)的特征圖。因此式(10)可以寫成

        式中:C(D,hi=0)表示去除掉某特征圖時的損失函數(shù)值;C(D,hi)表示沒有去除該特征圖時的損失函數(shù)值。

        為了避免繁瑣的運算,采用文獻(xiàn)[29]中的方法對式(12)進(jìn)行處理,將C(D,hi)在hi=0處一階泰勒展開,舍去余項,即有

        將式(13)代入式(12),有

        式中:μ(hi)表示某個卷積核的效用值,可由其一階梯度與特征圖的乘積近似。

        卷積層的效用值定義如下:

        式中:k表示第k層卷積層;N表示該層卷積層的卷積核數(shù)量;μi由式(14)計算得到。卷積層效用值表征卷積層的重要性程度,效用值越高的卷積層其重要性程度也越高。

        3.4 網(wǎng)絡(luò)結(jié)構(gòu)

        CNN的一般基本塊結(jié)構(gòu)為:卷積層-BN層-激活層-池化層,而對于BNN來說,在二值激活后進(jìn)行池化會丟失大量的特征信息。例如,在二值激活后輸出的特征元素為-1或者+1,經(jīng)過最大池化后大多數(shù)特征元素都變成了+1。因此,BNN將池化層放在卷積層之后,此外在二值化激活之前采用BN層對輸入進(jìn)行歸一化處理,確保輸入數(shù)據(jù)保持零均值分布。因此,BNN一般的基本塊結(jié)構(gòu)為BN層-二值激活層-二值卷積層-池化層,結(jié)構(gòu)如圖5所示。本文對圖2所示的CNN中卷積層效用值較低的四層卷積層與第一層全連接層進(jìn)行二值化,按照圖5所示調(diào)整目標(biāo)層的基本塊順序,得到BNN。

        4 實驗仿真與結(jié)果分析

        4.1 實驗平臺

        本文實驗環(huán)境配置如下:在Windows11平臺下采用Pycharm2021.1.3作為神經(jīng)網(wǎng)絡(luò)的搭建平臺;Python版本為3.8;輻射源信號數(shù)據(jù)集由軟件仿真生成;深度學(xué)習(xí)框架為Pytorch1.13.1;神經(jīng)網(wǎng)絡(luò)的訓(xùn)練在NVIDIA GeForce GTX2080 GPU上進(jìn)行;系統(tǒng)處理器為Intel Core(TM)i7-10700K CPU@3.8 GHz。

        4.2 輻射源信號數(shù)據(jù)集仿真

        本文對8種脈內(nèi)調(diào)制類型的輻射源信號進(jìn)行仿真,脈寬為τ=2 μs,采樣率fs=400 MHz,各信號的具體參數(shù)取值如表1所示,為了增強輻射源信號數(shù)據(jù)集的多樣性,所有參數(shù)均在取值范圍內(nèi)隨機選取。信噪比范圍為-9~3 dB,步長設(shè)置為3 dB,每個信噪比下每類信號各隨機生成800個脈沖,其中600個脈沖用于訓(xùn)練集,200個脈沖用于測試集。對脈沖信號進(jìn)行CWD時頻變換和時頻圖像預(yù)處理,生成相應(yīng)的數(shù)據(jù)集。

        4.3 卷積層效用值分析

        首先采用第4.2節(jié)中的輻射源信號數(shù)據(jù)集對實值CNN進(jìn)行訓(xùn)練,超參數(shù)設(shè)置如表2所示。

        CNN訓(xùn)練收斂后,CNN對輻射源信號測試集的總體信號識別準(zhǔn)確率為91.82%,網(wǎng)絡(luò)的乘加運算次數(shù)為5.21×108 MACs。通過式(13)計算CNN各層卷積層的效用值來量化其重要性程度,并對各卷積層效用值進(jìn)行歸一化,結(jié)果如表3所示。由結(jié)果可知,第5層與第6層卷積層的效用值最高,說明第5層卷積層和第6層卷積層的重要性程度最高。

        本文將CNN的第5層和第6層卷積層保留為實值,其余卷積層進(jìn)行二值化,微調(diào)訓(xùn)練10輪后得到BNN,此時BNN的總體信號識別準(zhǔn)確率為91.36%,而網(wǎng)絡(luò)的乘加運算次數(shù)僅為8.4×107 MACs。

        4.4 BNN的性能分析及對比

        為了進(jìn)一步驗證通過本文方法得到的BNN在不同信噪比下的性能,本節(jié)將分別對BNN在不同信噪比下的輻射源信號識別準(zhǔn)確率、噪聲泛化性能、網(wǎng)絡(luò)參數(shù)內(nèi)存大小、運算量大小和運算復(fù)雜度進(jìn)行分析,并與文獻(xiàn)[26]提出的BNN進(jìn)行對比。為了保證對比的嚴(yán)謹(jǐn)性,采用的數(shù)據(jù)集均為第4.2節(jié)中的仿真輻射源信號數(shù)據(jù)集,BNN均是針對第4.3節(jié)中的CNN進(jìn)行二值化,BNN的微調(diào)訓(xùn)練次數(shù)都為10。

        4.4.1 不同信噪比下信號識別準(zhǔn)確率的對比

        表4所示為不同信噪比下CNN與BNN的信號識別準(zhǔn)確率對比。由結(jié)果可知,在信噪比大于-3 dB時,通過文獻(xiàn)[26]方法得到的BNN與本文方法對輻射源信號的識別準(zhǔn)確率相差不大,都保持在一個較高的水平,并且基本上接近CNN的識別準(zhǔn)確率;而在信噪比小于-3 dB時,本文方法得到的BNN的識別準(zhǔn)確率要高于文獻(xiàn)[26]方法。在信噪比為-9 dB時,本文方法得到的BNN的信號識別準(zhǔn)確率比文獻(xiàn)[26]方法得到的BNN提升了4.1%;在信噪比為-6 dB時,本文方法得到的BNN的信號識別準(zhǔn)確率比文獻(xiàn)[26]方法得到的BNN提升了3%。

        圖6所示分別為CNN和BNN針對測試集的信號識別混淆矩陣,其中信號測試集中每種信號有1 000個樣本。由圖6可知,對于每種信號來說,本文方法得到的BNN的識別準(zhǔn)確率都高于文獻(xiàn)[26]方法得到的BNN,其中識別準(zhǔn)確率提升最大的是LFM_SFM信號,提升了3.2%。因此,本文方法得到的BNN相比于文獻(xiàn)[26]方法具有更強的特征提取與分類能力。

        4.4.2 噪聲泛化性能對比

        第4.2節(jié)中采用的輻射源信號訓(xùn)練集和測試集均在信噪比分別為-9 dB、-6 dB、-3 dB、0 dB和3 dB下生成,為了驗證本文方法得到的BNN的噪聲泛化性能,在信噪比分別為-8 dB、-5 dB、-2 dB、1 dB、4 dB條件下仿真生成輻射源信號測試集,分別測試CNN與BNN的信號識別準(zhǔn)確率,結(jié)果如表5所示。

        由結(jié)果可知,在信噪比大于-2 dB時,本文方法得到的BNN、文獻(xiàn)[26]方法得到的BNN信號識別準(zhǔn)確率與CNN相差不大,都保持在較高的水平;在信噪比為小于-2 dB時,本文方法得到的BNN信號識別準(zhǔn)確率比文獻(xiàn)[26]方法提升了3.25%,且與CNN的信號準(zhǔn)確率差異不大,這說明通過本文方法得到的BNN具有更好的噪聲泛化性能。

        4.4.3 網(wǎng)絡(luò)參數(shù)內(nèi)存、運算次數(shù)和運算復(fù)雜度分析

        表6所示為CNN與通過本文方法得到的BNN的參數(shù)內(nèi)存、網(wǎng)絡(luò)運算次數(shù)和運算復(fù)雜度的對比結(jié)果。其中,采用浮點運算次數(shù)(floating-point operations, FLOPs)衡量網(wǎng)絡(luò)計算復(fù)雜度[30,對于目前大部分的中央處理器(central processing unit,CPU)或圖形處理器(graphic processing unit, GPU)來說,可以并行進(jìn)行64個二值計算(位運算),因此BNN的FLOPs為實值運算的次數(shù)加上二值運算次數(shù)的1/64[31。當(dāng)神經(jīng)網(wǎng)絡(luò)的二值化結(jié)構(gòu)確定后,BNN的參數(shù)內(nèi)存、網(wǎng)絡(luò)運算次數(shù)和運算復(fù)雜度均隨之確定。

        由表6可知,相對于CNN來說,通過本文方法得到的BNN具有更低的參數(shù)內(nèi)存、網(wǎng)絡(luò)運算量和運算復(fù)雜度。其中,網(wǎng)絡(luò)參數(shù)內(nèi)存壓縮比為6.04,網(wǎng)絡(luò)運算量壓縮比為6.21,因此本文方法得到的BNN不僅占用較低的存儲資源,同時能夠大幅縮短前向推理時間,適合在資源有限的終端設(shè)備上部署。

        5 結(jié) 語

        本文提出的基于BNN的輻射源信號識別方法,其創(chuàng)新點在于,通過衡量網(wǎng)絡(luò)每層卷積層的重要性程度,將效用值高的卷積層保留為實值,將效用值低的卷積層進(jìn)行二值量化,得到高性能的BNN,實現(xiàn)對8種輻射源信號的識別。實驗表明,通過本文方法得到的BNN在信噪比大于-9 dB時具有與實值CNN相似的特征提取能力,信號的總體識別準(zhǔn)確率僅降低了0.5%,而網(wǎng)絡(luò)參數(shù)內(nèi)存大小和網(wǎng)絡(luò)運算次數(shù)降低了83%左右,網(wǎng)絡(luò)的運算復(fù)雜度降低了85.8%,大大降低了神經(jīng)網(wǎng)絡(luò)的空間和運算復(fù)雜度。此外,本文的神經(jīng)網(wǎng)絡(luò)二值量化的方法具有一定的通用性,能夠針對任意結(jié)構(gòu)的CNN確定最優(yōu)的二值量化結(jié)構(gòu)。本文構(gòu)建的BNN能夠通過設(shè)計專用的算子進(jìn)行加速推理,后續(xù)將研究在FPGA上部署B(yǎng)NN,實現(xiàn)輕量化的輻射源信號識別系統(tǒng)。

        參考文獻(xiàn)

        [1]YANG H H, YANG X P, LIU S K, et al. Radar emitter multi-label recognition based on residual network[J]. Defence Technology, 2022, 18(3): 410-417.

        [2]劉贏, 田潤瀾, 王曉峰. 基于深層卷積神經(jīng)網(wǎng)絡(luò)和雙譜特征的雷達(dá)信號識別方法[J]. 系統(tǒng)工程與電子技術(shù), 2019, 41(9): 1998-2005.

        LIU Y, TIAN R L, WANG X F. Radar signal recognition method based on deep convolutional neural network and bispectral features[J]. Systems Engineering and Electronics, 2019, 41(9): 1998-2005.

        [3]MUHAMMAD Y S, WANG J H, XV M M, et al. Ship detection based on deep learning using SAR imagery: a systematic literature review[J]. Soft Computing, 2023, 27(1): 63-84.

        [4]YAO Y, WANG Z H. Radar signal recognition based on time-frequency and CNN preprocessing[J]. Journal of Detection and Control, 2018, 40(6): 99-105.

        [5]SHI L M, YANG C Z. Recognition method of radar signal mo-dulation method based on deep network[J]. Journal of Ordnance Equipment Engineering, 2021, 42(6): 190-193, 218.

        [6]崔邦彥, 田潤瀾, 王東風(fēng), 等. 基于注意力機制和改進(jìn)CLDNN的雷達(dá)輻射源識別[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(5): 1224-1231.

        CUI B Y, TIAN R L, WANG D F, et al. Radar emitter identification based on attention mechanism and improved CLDNN[J]. Systems Engineering and Electronics, 2021, 43(5): 1224-1231.

        [7]GAO J P, WANG X, WU R W, et al. A new modulation recognition method based on flying fish swarm algorithm[J]. IEEE Access, 2021, 9: 76689-76706.

        [8]TAO S F, XIAO S, GONG S, et al. Recognition of electromagnetic signals based on the spiking convolutional neural network[J]. Wireless Communications and Mobile Computing, 2022, 2022: 2395996.

        [9]MUHAMMAD U, LEE J A. AMC-IoT: automatic modulation classification using efficient convolutional neural networks for low powered IoT devices[C]∥Proc.of the International Confe-rence on Information and Communication Technology Convergence, 2020: 288-293.

        [10]WANG T Y, JIN Y H. Modulation recognition based on lightweight neural networks[C]∥Proc.of the 13th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics, 2020: 468-472.

        [11]ZHANG F X, LUO C B, XV J L, et al. An efficient deep learning model for automatic modulation recognition based on parameter estimation and transformation[J]. IEEE Communications Letters, 2021, 25(10): 3287-3290.

        [12]WANG N, LIU Y X, MA L, et al. Multidimensional CNN-LSTM network for automatic modulation classification[J]. Electronics, 2021, 10(14): 1649.

        [13]權(quán)宇, 李志欣, 張燦龍, 等. 融合深度擴(kuò)張網(wǎng)絡(luò)和輕量化網(wǎng)絡(luò)的目標(biāo)檢測模型[J]. 電子學(xué)報, 2020, 48(2): 390-397.

        QUAN Y, LI Z X, ZHANG C L, et al. Fusing deep dilated convolutions network and light-weight network for object detection[J]. ACTA Electonica Sinica, 2020, 48(2): 390-397.

        [14]WANG Z W, ZHENG Q, LU J W, et al. Deep hashing with active pairwise supervision[C]∥Proc.of the European Confe-rence on Computer Vision, 2020: 522-538.

        [15]WANG Z W, XIAO H, LU J W, et al. Generalizable mixed-precision quantization via attribution rank preservation[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2021: 2-9.

        [16]GONG R H, LIU X L, JIANG S H, et al. Differentiable soft quantization: bridging full-precision and low-bit neural networks[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 4852-4861.

        [17]YANG J W, SHEN X, XING J, et al. Quantization networks[C]∥ Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 7308-7316.

        [18]ULLRICH K, MEEDS E, WELLING M, et al. Soft weight sharing for neural network compression[C]∥Proc.of the International Conference on Learning Representations, 2017.

        [19]ZHANG D Q, YANG J L, YE D Q, et al. LQ-nets: learned quantization for highly accurate and compact deep neural networks[C]∥Proc.of the European Conference on Computer Vision, 2018: 365-382.

        [20]QIN H T, GONG R H, LIU X L, et al. Binary neural networks: a survey[J]. Pattern Recognition, 2020, 105: 1737-1746.

        [21]CHEN T L, ZHANG Z Y, OUYANG X, et al. “BNN-BN=?”: training binary neural networks without batch normalization[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 4619-4629.

        [22]SHEN Z Q, LIU Z C, QIN J, et al. S2-BNN: bridging the gap between self-supervised real and 1-bit neural networks via guided distribution calibration[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 2165-2174.

        [23]XUE P, LU Y, CHANG J F, et al. Self-distribution binary neural networks[J]. Applied Intelligence, 2022, 52(12): 13870-13882.

        [24]WANG Z W, LU J W, WU Z Y, et al. Learning efficient binarized object detectors with information compression[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 2022, 44(6): 3082-3095.

        [25]JI H, XU W Y, GAN L, et al. Modulation recognition based on lightweight residual network via binary quantization[C]∥Proc.of the 7th International Conference on Computer and Communications, 2021: 154-158.

        [26]RASTEGARI M, ORDONEZ V, REDMON J, et al. Xnor-net: imagenet classification using binary convolutional neural networks[C]∥Proc.of the European Conference on Computer Vision, 2016: 525-542.

        [27]HUANG D K, YAN X P, HAO X H, et al. Low SNR multi-emitter signal sorting and recognition method based on low-order cyclic statistics CWD time-frequency images and the YOLOv5 deep learning model[J]. Sensors, 2022, 22(20): 7783.

        [28]肖帥, 龔帥閣, 李想, 等. FPGA平臺輕量化卷積神經(jīng)網(wǎng)絡(luò)輻射源信號識別方法[J]. 計算技術(shù)與自動化, 2023, 42(4): 140-146.

        XIAO S, GONG S G, LI X, et al. Emitter signal identification method with lightweight CNN on FPGA platform[J]. Computing Technology and Automation, 2023, 42(4): 140-146.

        [29]PAVLO M, STEPHEN T, TERO K, et al. Pruning convolutional neural networks for resource efficient inference[EB/OL]. [2023-05-31]. https:∥arxiv.org/abs/1611.06440.

        [30]BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends in Machine Learning, 2011, 3(1): 1-122.

        [31]王子為, 魯繼文, 周杰. 基于自適應(yīng)梯度優(yōu)化的二值神經(jīng)網(wǎng)絡(luò)[J]. 電子學(xué)報, 2023, 51(2): 257-266.

        WANG Z W, LU J W, ZHOU J. Learning adaptive gradients for binary neural networks[J]. ACTA Electonica Sinica, 2023, 51(2): 257-266.

        作者簡介

        王慧賦(1998—),男,碩士研究生,主要研究方向為輻射源信號識別、深度學(xué)習(xí)。

        梅明飛(2000—),男,碩士研究生,主要研究方向為雷達(dá)目標(biāo)識別、深度學(xué)習(xí)。

        齊 亮(1981—),男,高級工程師,碩士,主要研究方向為無線通信技術(shù)、信號智能識別技術(shù)。

        柴 恒(1982—),男,高級工程師,碩士,主要研究方向為電子偵察設(shè)計。

        陶詩飛(1987—),男,副教授,碩士,主要研究方向為雷達(dá)偵察、目標(biāo)識別、電磁隱身技術(shù)。

        少妇aaa级久久久无码精品片| 在线观看国产激情免费视频| 日本成人精品在线播放| 隔壁老王国产在线精品| 国产精品igao视频| 久久精品免视看国产明星 | 亚洲va中文字幕无码久久不卡| 亚洲 欧美 激情 小说 另类| 日韩国产一区二区三区在线观看| 蜜桃视频在线看一区二区三区| 国产乱码一二三区精品| 亚洲国产午夜精品乱码| 亚洲一区二区三区美女av| 一本色道久久88加勒比一| 色老板精品视频在线观看| 久精品国产欧美亚洲色aⅴ大片| 91精品国产色综合久久不| 亚洲av久播在线一区二区| 国产麻豆成人精品av| 色爱无码A V 综合区| 国产精品无套内射迪丽热巴| 国产亚洲美女精品久久| 五月婷婷丁香视频在线观看| 77777_亚洲午夜久久多人| 成熟人妻av无码专区| 成年女人窝窝视频| 亚洲精品中文字幕一二三四| 又粗又硬又大又爽免费视频播放| 欧美性受xxxx黑人xyx性爽| 中文字幕一二区中文字幕| 一区二区三区视频在线观看| 免费人妻无码不卡中文字幕18禁| 制服丝袜视频国产一区| 亚洲第一页在线免费观看| 在线观看av片永久免费| 麻豆国产成人av高清在线观看| 久久精品国产亚洲av麻豆四虎 | 亚洲精品国产二区三区在线| 少妇激情高潮视频网站| 99精品国产一区二区三区不卡 | 老师粉嫩小泬喷水视频90|