亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        輕量化的ML SNet雷達復(fù)合干擾識別算法

        2025-03-20 00:00:00郭立民黃文青陳前王佳賓

        摘 要:針對復(fù)雜電磁環(huán)境下雷達復(fù)合干擾識別困難和網(wǎng)絡(luò)模型復(fù)雜度高的問題,將多標(biāo)簽分類與改進的ShuffleNet V2相結(jié)合,提出一種輕量化的多標(biāo)簽ShuffleNet(multi labeling ShuffleNet, ML SNet)雷達復(fù)合干擾識別算法。首先,使用輕量化的ShuffleNet V2作為主干網(wǎng)絡(luò),引入SimAM(similarity based attention module)注意力機制,提高網(wǎng)絡(luò)特征提取能力。其次,使用漏斗激活線性整流函數(shù)(funnel activation rectified linear unit, FReLU)代替線性整流單元(rectified linear unit, ReLU)激活函數(shù),減少特征圖的信息損失。最后,使用多標(biāo)簽分類算法對網(wǎng)絡(luò)輸出進行分類,得到識別結(jié)果。實驗結(jié)果表明,在干噪比范圍為-10~10 dB的情況下,所提算法對15類雷達復(fù)合干擾的平均識別率為97.9%。與其他網(wǎng)絡(luò)相比,所提算法具有較低的計算復(fù)雜度,而且識別性能表現(xiàn)最佳。

        關(guān)鍵詞: 復(fù)合干擾識別; 多標(biāo)簽分類; 輕量化; 計算復(fù)雜度

        中圖分類號: TN 974

        文獻標(biāo)志碼: ADOI:10.12305/j.issn.1001 506X.2025.02.09

        Lightweight algorithm of ML SNet radar compound jamming recognition

        GUO Limin, HUANG Wenqing*, CHEN Qian, WANG Jiabin

        (College of Information and Communication Engineering, Harbin Engineering University, Harbin 150001, China)

        Abstract:Aiming at the problems of difficult radar compound jamming recognition and high complexity of network model in complex electromagnetic environments, a lightweight multi labeling ShuffleNet (ML SNet) radar compound jamming recognition algorithm is proposed by combining multi label classification with the improved ShuffleNet V2. Firstly, the lightweight ShuffleNet V2 is used as the backbone network, and the similarity based attention module (SimAM) attention mechanism is introduced to improve the network feature extraction capability. Secondly, the funnel activation rectified linear unit (FReLU) activation function is used instead of the rectified linear unit (ReLU) activation function to reduce the information loss of the feature map. Finally, the recognition results are obtained by classifying the network output using a multi label classification algorithm. Experimental results indicate that the proposed algorithm achieves an average recognition rate of 97.9% for 15 classes of radar compound jamming with the jamming to noise ratio of -10 10 dB. The proposed algorithm has a lower computational complexity and the best performance in terms of recognition performance compared to other networks.

        Keywords:compound jamming recognition; multi label classification; lightweight; computational complexity

        0 引 言

        作為一種全天候的智能傳感器,雷達具備在各種武器系統(tǒng)上進行目標(biāo)探測、定位、跟蹤和制導(dǎo)的能力,從而提升傳統(tǒng)裝備的作戰(zhàn)效能1-3。然而,隨著數(shù)字射頻存儲器(digital radio frequency memory, DRFM)的快速發(fā)展,雷達系統(tǒng)的作戰(zhàn)性能受到了嚴(yán)重威脅4-5。因此,在日益復(fù)雜多變的電磁環(huán)境下,提高雷達的抗干擾能力愈發(fā)重要。在針對抗干擾技術(shù)的研究中,干擾信號的識別在提高雷達系統(tǒng)的抗干擾能力上發(fā)揮著關(guān)鍵的作用6-10。

        傳統(tǒng)的雷達干擾信號分類方法主要包括基于似然的方法和基于特征的方法?;谒迫坏姆椒ㄓ嬎愀蓴_信號的似然函數(shù),并將其與預(yù)設(shè)的閾值進行比較,以確定信號的干擾類型11-12。但是,此方法需要先驗知識和人為設(shè)定閾值,因此其適用范圍有限?;谔卣鞯姆椒òㄌ卣魈崛『头诸惼鞯脑O(shè)計,該方法在干擾信號中提取時域、頻域、時頻域等的特征,并使用機器學(xué)習(xí)或其他算法構(gòu)建分類器,以實現(xiàn)干擾信號的識別13-15。然而,基于特征的方法主要依賴于人工特征提取,這會帶來較高的計算復(fù)雜度以及大量的時間投入。

        由于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)具有強大的特征表示能力,基于深度學(xué)習(xí)的雷達干擾識別已成為研究領(lǐng)域的熱點,引起了廣泛的關(guān)注16-18。例如,Qu等19提出一種基于魯棒功率譜特征的干擾識別網(wǎng)絡(luò),實現(xiàn)了對4種單一干擾類型和6種復(fù)合干擾類型的識別。LYU等4提出一種基于加權(quán)集成CNN和遷移學(xué)習(xí)的雷達有源欺騙干擾識別算法,最終實現(xiàn)了對12類干擾樣本的識別。Shao等20提出一種面向小樣本的多模態(tài)雷達有源干擾識別方法,實現(xiàn)小樣本條件下對10種雷達欺騙干擾信號的分類。

        多個干擾設(shè)備協(xié)同工作,對雷達信號進行多種調(diào)制,使真實目標(biāo)和干擾信號在時域、頻域和空間域的特征相似,極大程度地增加了目標(biāo)的識別難度21-22。針對此問題,一些學(xué)者對復(fù)合干擾識別進行初步研究。例如,在文獻[23]中,每個信號組合被視為一個新的類別,并使用反向傳播神經(jīng)網(wǎng)絡(luò)對12個不同的信號組合進行分類。然而,多類分類器將每個信號組合視為一個新類別,其輸出節(jié)點的數(shù)量會隨著干擾信號分量的增加而呈現(xiàn)指數(shù)增長24

        針對上述問題,本文基于多標(biāo)簽分類和改進的ShuffleNet V2,提出一種輕量化的多標(biāo)簽ShuffleNet(multi label ing ShuffleNet, ML SNet)雷達復(fù)合干擾識別算法。多標(biāo)簽分類將每個干擾分量作為獨立標(biāo)簽進行分類,更加符合實際復(fù)雜的雷達復(fù)合干擾場景。本文對ShuffleNet V2進行改進:一是結(jié)合SimAM(similarity based attention module)注意力機制模塊單元,自適應(yīng)地調(diào)整特征映射的權(quán)重,更加關(guān)注局部區(qū)域特征;二是引入漏斗激活線性整流單元(funnel activation rectified linear unit, FReLU)激活函數(shù),增強網(wǎng)絡(luò)的信息捕獲能力;三是調(diào)整網(wǎng)絡(luò)的結(jié)構(gòu),減少模塊單元的堆疊個數(shù),減少網(wǎng)絡(luò)參數(shù)量。

        1 相關(guān)工作

        1.1 雷達發(fā)射信號

        雷達主要通過處理和分析回波信號來獲取目標(biāo)信息。線性調(diào)頻(linear frequency modulation, LFM)信號是現(xiàn)代雷達最常用的信號類型之一,這種信號具有大帶寬、長脈沖的特點。因此,本文采用LFM作為雷達的發(fā)射信號。其時域信號表達式如下:

        s(t)=A·recttTexpj2πf0t+12kt2(1)

        式中:A為發(fā)射信號的幅值;T為雷達LFM信號帶寬;f0為中心頻率;k為調(diào)頻斜率。矩形函數(shù)rect(t/T)的定義如下:

        recttT=1, -T2≤t≤T2

        0, 其他(2)

        1.2 單一干擾信號

        根據(jù)信號產(chǎn)生機理的不同,本文選擇以下6種單一干擾進行復(fù)合,即切片轉(zhuǎn)發(fā)(chopping and interleaving, CI)干擾、間歇采樣直接轉(zhuǎn)發(fā)干擾(interrupted sampling and direct repeater jamming, ISDJ)、梳狀譜(comb spectrum, COMB)干擾、頻譜彌散(smeared spectrum, SMSP)干擾、噪聲乘積(noise product, NP)干擾和噪聲卷積(noise convolution, NC)干擾。

        CI干擾:在干擾機截獲到雷達信號以后,先將信號變頻至中頻,用一矩形脈沖串對截獲信號進行采樣,然后按照設(shè)定的次數(shù)對切片信號進行重復(fù)轉(zhuǎn)發(fā),最后將干擾頻譜搬移到需干擾信號的所在頻段。CI干擾的時域表達式為

        JCI(t)=∑n-1k=0pt-kTmn(3)

        式中:p(t)的表達式為

        p(t)=s(t)rectt-τjτj∑m-1i=0δ(t-iTj)(4)

        式中:*表示卷積;s(t)為雷達發(fā)射信號;m為矩形脈沖串個數(shù);n為重復(fù)轉(zhuǎn)發(fā)次數(shù);τj為矩形脈沖串脈寬;Tj為矩形脈沖串基波周期;δ(·)為沖激函數(shù)。

        ISDJ:此干擾是對干擾機截獲的雷達信號進行一段采樣,然后直接轉(zhuǎn)發(fā),并重復(fù)此過程。ISDJ的時域表達式為

        JISDJ(t)=∑Mm=1rectt-(2m-1)τjτjs(t-τj)(5)

        式中:M為循環(huán)次數(shù)。

        COMB干擾:此干擾主要由COMB信號和LFM乘積調(diào)制產(chǎn)生,產(chǎn)生的干擾具有欺騙或壓制效果,COMB信號的表達式如下:

        COMB(t)=∑Ni=1Aiej2πfit(6)

        COMB干擾的時域表達式為

        JCOMB(t)=s(t)·COMB(t)=

        A·recttT∑Ni=1Aiej2π(f0+fi)t+k2t2(7)

        式中:Ai為子信號的幅度;N為信號的個數(shù);fi為第i個子信號的中心頻率。

        SMSP干擾:此干擾是干擾機截獲雷達發(fā)射信號后,將信號在時域壓縮至此前的1/M后,再將此信號復(fù)制M次所產(chǎn)生的干擾。時域壓縮信號Ji(t)的表達式如下:

        Ji(t)=Ai·expj2πf0t+12kt2, 0<t<Tj(8)

        式中:Tj為時域壓縮信號的時寬,Tj=T/M。將時域壓縮信號重復(fù)轉(zhuǎn)發(fā)M次,得到SMSP干擾,其時域表達式如下:

        JSMSP(t)=Ji(t)*∑M-1i=0δ(t-MTj)(9)

        NP干擾:先利用白噪聲n(t)產(chǎn)生相位隨機變換的余弦信號,然后用帶通濾波器Fband(t)產(chǎn)生一個窄帶信號,最后將其與雷達發(fā)射信號s(t)作乘積,其時域表達式為

        JNP(t)=s(t)·[Fband(t)Acos(2πn(t))](10)

        式中:Fband(t)為帶通濾波器;n(t)為高斯噪聲信號。

        NC干擾:先利用帶通濾波器Fband(t)處理高斯白噪聲n(t),并產(chǎn)生一個窄帶噪聲,對其作希爾伯特變換后,形成一個負數(shù)信號,最后將該負數(shù)信號與雷達發(fā)射信號s(t)作卷積,其時域表達式為

        JNC(t)=s(t)·[H(Fband(t)n(t))](11)

        式中:H(·)為希爾伯特變換。

        1.3 復(fù)合干擾信號

        復(fù)合干擾是多個單一干擾信號的有機組合,具有對目標(biāo)雷達進行多維干擾的能力。通常,干擾信號一般由多個分布式干擾機通過戰(zhàn)術(shù)上的協(xié)同作戰(zhàn)產(chǎn)生。本文研究對象為加性復(fù)合干擾,此種復(fù)合方式實現(xiàn)簡單,通過結(jié)合時域和頻域的不同特征,實現(xiàn)不同作用區(qū)域干擾效果的自由組合,使干擾效果更加突出。本文模擬場景為兩個干擾機同時發(fā)射干擾信號以對抗目標(biāo)雷達,那么注入雷達天線的總信號可以表示為

        J(t)=J1(t-τ1)+J2(t-τ2)+n(t)+s(t)(12)

        式中:J1(t)和J2(t)表示兩個干擾機發(fā)射的雷達干擾信號;τ1和τ2表示兩個干擾機的發(fā)射時延。

        實驗中的復(fù)合干擾信號都在一個脈沖重復(fù)周期進行建模,這有助于更好地模擬復(fù)雜場景下的信號干擾情況。關(guān)于噪聲功率設(shè)置,將復(fù)合干噪比(jamming to noise ratio, JNR)定義為

        JNR=10lg∑ki=1PiPn(13)

        式中:Pi表示第i個信號分量的功率;Pn表示高斯白噪聲功率。

        本文采用6類不同的單一干擾信號,通過加性復(fù)合的方式,得到15類不同的復(fù)合干擾信號。圖1為15類復(fù)合干擾信號在JNR為10 dB時的時域波形,可以看出各類干擾信號在時域上相似度較高,不易進行識別分類。因此,后續(xù)將對各類干擾信號從時域轉(zhuǎn)換到時頻域。

        1.4 時頻變換

        時頻變換在雷達干擾信號識別中起著關(guān)鍵作用,通過將干擾信號轉(zhuǎn)換至?xí)r頻域,從而提取時間域和頻率域的聯(lián)合分布信息。這種轉(zhuǎn)換有效地描述了信號頻率隨時間變化的特征,使得雷達干擾信號的特征更加明顯。

        本文采用的時頻變換為平滑偽維格納-威利分布(smoothed pseudo wigner ville distribution, SPWVD),該方法在維格納-威利分布(wigner ville distribution, WVD)的基礎(chǔ)上加入了時域窗函數(shù),并進行時域上的平滑處理,能夠有效減小交叉干擾項的影響。其計算公式如下:

        S(t,ω)=∫+-∞g(u-τ)·

        +-∞h(τ)Jt+τ2J*t-τ2e-jωτdτdu(14)

        式中:g(u-τ)和h(τ)分別表示時域和頻域窗函數(shù);u表示時間的瞬時值;τ表示時間的偏移量。

        圖2為15類復(fù)合干擾在JNR為10 dB時的時頻圖像,可以看出各類型干擾的時頻特征明顯,有助于增強模型對干擾信號特征的提取能力、提高模型對雷達復(fù)合干擾信號識別的準(zhǔn)確率和魯棒性。

        2 雷達復(fù)合干擾識別算法

        2.1 算法框架

        本文提出的輕量化的ML SNet雷達復(fù)合干擾識別算法的思想,是利用干擾信號的時頻圖像作為數(shù)據(jù)集,結(jié)合多標(biāo)簽分類和改進的ShuffleNet V2對時頻圖像進行識別。

        算法框架如圖3所示,主要由三部分組成。

        第1部分為數(shù)據(jù)處理,對雷達復(fù)合干擾信號進行時域建模,進行SPWVD變換,生成時頻圖像,構(gòu)建數(shù)據(jù)集。第2部分為模型訓(xùn)練,將訓(xùn)練集的時頻圖像送入改進的ShuffleNet V2網(wǎng)絡(luò)中,通過前向傳播計算輸出,再通過反向傳播更新模型參數(shù),直至模型訓(xùn)練完成。第3部分為多標(biāo)簽分類,將測試集的時頻圖像輸入到訓(xùn)練好的模型中,將輸出概率向量通過多標(biāo)簽分類算法映射到輸出標(biāo)簽向量,最終得到識別結(jié)果。

        2.2 改進的ShuffleNet V2網(wǎng)絡(luò)

        在當(dāng)前的戰(zhàn)場環(huán)境下,硬件平臺的資源是有限的,因此降低網(wǎng)絡(luò)模型的計算復(fù)雜度成為一個亟待解決的問題。ShuffleNet V2采用了輕量化設(shè)計25,在移動設(shè)備上具有較低的模型規(guī)模和計算復(fù)雜度,適用于嵌入式設(shè)備和移動端的應(yīng)用。因此,本文采用輕量級網(wǎng)絡(luò)ShuffleNet V2作為主干網(wǎng)絡(luò),并對其進行改進,包括引入SimAM注意力機制、使用FReLU激活函數(shù)和進行結(jié)構(gòu)調(diào)整。改進的ShuffleNet V2網(wǎng)絡(luò)的結(jié)構(gòu)如圖4所示。

        網(wǎng)絡(luò)輸入時頻圖的大小為3×224×224,先采用24個步長為2的3×3普通卷積提取特征信息,然后使用最大池化層進行下采樣操作。使用3個由下采樣單元和基本單元組成的模塊層,完成特征通道的重排、混洗和逐點分組卷積操作,以達到在輕量化網(wǎng)絡(luò)結(jié)構(gòu)下提高模型性能的目標(biāo)。通過1 024個步長為1的1×1卷積對通道數(shù)進行擴充,以獲取干擾特征信息。隨后,使用全局池化層融合空間信息,以防止過擬合,并提高泛化能力。

        ShuffleNet V2網(wǎng)絡(luò)是針對ImageNet數(shù)據(jù)集的1 000類別進行分類設(shè)計的,而本文研究對象為15類雷達復(fù)合干擾信號,因此可對網(wǎng)絡(luò)結(jié)構(gòu)中模塊1、模塊2和模塊3中Shuffle_SimAM下采樣單元的數(shù)量進行調(diào)整,將其堆疊個數(shù)由原網(wǎng)絡(luò)的3、7、3降為1、1、1,這樣可以減少參數(shù)量和計算量的消耗。

        2.2.1 Shuffle_SimAM單元

        圖5為Shuffle_SimAM單元模塊,本文將原模塊中的ReLU激活函數(shù)替換為FReLU激活函數(shù),并在1×1普通卷積之后添加SimAM注意力機制。FReLU激活函數(shù)可以增加網(wǎng)絡(luò)的空間捕獲能力,減少特征圖的信息損失。SimAM注意力機制能夠自適應(yīng)地調(diào)整特征映射的權(quán)重,更加關(guān)注局部區(qū)域。這些改進增強了模型的特征表示和分類能力,以適應(yīng)復(fù)雜戰(zhàn)場環(huán)境中的干擾信號識別任務(wù)。

        如圖5(a)所示,Shuffle_SimAM下采樣單元首先對輸入特征圖進行通道劃分,將其平均分為兩個分支。左分支保持不變,而右分支經(jīng)過3個步長為1的卷積,其中包括兩個1×1普通卷積和一個3×3深度卷積,卷積的輸入和輸出通道數(shù)相同。在卷積操作之后,經(jīng)過SimAM模塊獲取干擾信號的高維特征。隨后,將兩個分支的通道數(shù)相加,實現(xiàn)特征融合。最后,通過通道混洗實現(xiàn)不同組之間的信息交流,確保特征信息相互融合。

        如圖5(b)所示,在Shuffle_SimAM基本單元中,無需對通道進行劃分,而是將特征圖直接輸入到兩個分支。兩個分支均使用步長為2的3×3深度卷積,對特征圖的長和寬進行降維,以減少網(wǎng)絡(luò)的計算量。在卷積操作之后,經(jīng)過SimAM模塊,獲取干擾信號的高維特征。隨后,兩個分支輸出進行通道相加操作,通道數(shù)相加后為原始輸入的2倍,增加了網(wǎng)絡(luò)的寬度。最后,通過通道混洗實現(xiàn)不同通道之間的信息交流。

        2.2.2 SimAM注意力機制

        SimAM注意力機制是Cai等26提出的一種新型注意機制,其目的是提供一種更輕量和更有效的特征細化方法。SimAM不需要在原始網(wǎng)絡(luò)中添加參數(shù),而是通過優(yōu)化特征圖的能量函數(shù)獲得三維特征權(quán)值。SimAM注意力機制的能量函數(shù)可以發(fā)現(xiàn)神經(jīng)元的重要性并快速推導(dǎo)出其封閉解,其能量函數(shù)的算子由能量函數(shù)解定義,因此不會改變原有網(wǎng)絡(luò)的結(jié)構(gòu)。其最小能量計算公式為

        e*t=4(σ^2+λ)(t-u^)2+2σ^2+2λ(15)

        式中:μ^表示均值,μ^=(1/m)·∑Mi=1xi;σ^2表示方差,σ^2=∑Mi=1(xi-μ^)2。

        能量越低,神經(jīng)元x周圍神經(jīng)元的區(qū)別越大,神經(jīng)元的重要性也越高。通過對單個神經(jīng)元進行操作,并將這種線性可分性整合到端到端的框架中,可提升神經(jīng)網(wǎng)絡(luò)的識別性能。

        2.2.3 FReLU激活函數(shù)

        線性整流單元(rectified linear unit, ReLU)激活函數(shù)計算量小,收斂速度快,但在訓(xùn)練反向傳播過程中也存在信息易丟失和數(shù)據(jù)更新困難的問題。FReLU激活函數(shù)27針對神經(jīng)元消失的問題進行優(yōu)化,其中所有負輸入均為零,其公式為

        FReLU=MAX(T(x),x)(16)

        式中:T(x)是二維卷積函數(shù),其參數(shù)可以通過訓(xùn)練進行更新。

        FReLU激活函數(shù)在分類、目標(biāo)定位和語義分割等任務(wù)方面取得了很大改進,重要原因是引入了多個可訓(xùn)練參數(shù),提高了網(wǎng)絡(luò)的自適應(yīng)能力。其中,利用二維卷積捕獲復(fù)雜的二維空間信息,通過參數(shù)的訓(xùn)練和迭代,提高對隱藏信息的敏感性。

        2.3 多標(biāo)簽分類算法

        多標(biāo)簽分類問題是傳統(tǒng)分類任務(wù)的擴展。在傳統(tǒng)分類任務(wù)中,一個樣本僅能被劃分為某一類別,不同類別之間相互排斥且不可共存28。然而,多標(biāo)簽問題日益普遍,即一個樣本可能同時具備多個類別標(biāo)簽,而這些標(biāo)簽之間并非互斥關(guān)系。復(fù)合干擾往往涉及多個干擾源的共存,這與傳統(tǒng)的單一分類場景有所不同。因此,為更準(zhǔn)確地捕捉和分析復(fù)合干擾的多樣性,本文采用多標(biāo)簽分類方法。

        多標(biāo)簽分類算法是通過多標(biāo)簽閾值函數(shù)將網(wǎng)絡(luò)輸出概率向量轉(zhuǎn)換為輸出標(biāo)簽向量。具體而言,輸出概率向量P=[p1,p2,…,pN]在經(jīng)過多標(biāo)簽閾值函數(shù)T(·)的作用下,映射為輸出標(biāo)簽向量Y=T(P)=[t(p1),t(p2),…,t(pN)]∈{0,1}N。其中,多標(biāo)簽閾值函數(shù)T(·)的定義如下:

        T(pj)=1, yj≥εj

        0, 其他, 1≤j≤N(17)

        式中:εj∈(0,1)表示第j個輸出概率向量的判決閾值;N表示單一干擾的數(shù)量。

        判決閾值可以顯著影響多標(biāo)簽分類算法的性能22,而且不同的數(shù)據(jù)集可能需要不同的ε值。因此,為尋找最佳閾值,采用直接搜索法計算每個標(biāo)簽的最佳閾值。在給定的閾值范圍內(nèi),以一定的步長進行迭代,并且計算每個標(biāo)簽在當(dāng)前閾值下的F1分?jǐn)?shù)。最終,選擇使F1分?jǐn)?shù)達到最大的閾值最為標(biāo)簽的最佳閾值。F1分?jǐn)?shù)的計算公式如下:

        F1j=2∑Mi=1yijlij∑Mi=1yij+∑Mi=1lij, 1≤i≤M;1≤j≤N(18)

        式中:lij∈(0,1)表示正確標(biāo)簽向量;yij∈(0,1)表示輸出標(biāo)簽向量。

        3 仿真實驗與分析

        3.1 實驗參數(shù)設(shè)置

        本文參考相關(guān)文獻[19]和文獻[29]的方法,設(shè)計干擾模擬數(shù)據(jù)集。設(shè)置雷達發(fā)射信號LDFM的載波頻率范圍為10~40 MHz,帶寬范圍為10~20 MHz,脈寬為10 μs,采樣頻率為100 MHz。設(shè)置JNR的變化范圍為-10~10 dB,間隔為2 dB。15類干擾信號在每個JNR生成40個樣本,樣本數(shù)量為15×40×11=6 600,將其劃分為訓(xùn)練集、驗證集和測試集,比例為6∶2∶2,即數(shù)量為3 960、1 320、1 320。各干擾類型的參數(shù)設(shè)置如表1所示。

        本文實驗的硬件設(shè)備包括Inter i9 13900K CPU、32 G內(nèi)存,以及NVIDIA GTX 1650顯卡。在軟件環(huán)境方面,本文實驗使用的是基于Python 3.9的PyTorch 2.0學(xué)習(xí)框架,并在PyCharm開發(fā)平臺下進行開發(fā)。訓(xùn)練過程中算法參數(shù)的設(shè)置如下:優(yōu)化算法為隨機梯度下降法,學(xué)習(xí)率為0.1,損失函數(shù)為多標(biāo)簽損失函數(shù)。當(dāng)訓(xùn)練集損失趨于0時,認為模型已經(jīng)訓(xùn)練充分。

        3.2 復(fù)合干擾識別性能分析

        為了驗證模型對復(fù)合干擾信號的識別性能,根據(jù)表1,在JNR范圍為-10~10 dB時產(chǎn)生復(fù)合干擾時頻圖樣本。使用本文算法對各復(fù)合干擾信號進行分類識別,實驗的多標(biāo)簽混淆矩陣如圖6所示。

        從混淆矩陣可以看出,算法對標(biāo)簽CI和NC的識別率達到了100%。算法主要的混淆出現(xiàn)在標(biāo)簽ISDJ、SMSP、COMB和NP,這是因為ISDJ、COMB和SMSP的干擾特征比較相近,時頻圖特征差距小;而NP由于兼具壓制和欺騙雙重效果,算法對其識別難度高。本文算法對復(fù)合干擾信號具備較好的識別效果,總體識別率可達97.9%,驗證了本文算法模型對復(fù)合干擾識別的有效性。

        3.3 信號功率對復(fù)合干擾識別的影響

        信號功率是對信號相對強度的度量,在復(fù)合干擾的場景下,不同干擾機可能以不同功率發(fā)射單一干擾信號。復(fù)合干擾功率比的表達式如下:

        Pcj=Pj1:Pj2(19)

        式中:Pj1和Pj2表示以噪聲為基準(zhǔn)構(gòu)成復(fù)合干擾的兩類單一干擾的信號功率。

        為了研究信號功率對復(fù)合干擾識別性能的影響,根據(jù)干擾參數(shù)表1,在保證樣本數(shù)量一致的情況下,在JNR范圍為-10~10 dB下生成Pcj時為1∶1、1∶2和2∶1時的干擾時頻樣本作為訓(xùn)練集,生成Pcj分別為1∶2、2∶1、1∶3和3∶1時的干擾時頻樣本作為測試集。利用本文算法對各復(fù)合干擾信號進行識別,實驗的多標(biāo)簽混淆矩陣如圖7所示。

        從混淆矩陣可以看出,當(dāng)信號功率比發(fā)生變化時,模型的識別率為97.5%,相對于發(fā)射信號功率相同時下降了0.4%。信號功率變化主要影響了模型對ISDJ、NP和NC標(biāo)簽的識別,這是因為當(dāng)NP和NC干擾的功率占比較大時,會對回波和其他干擾產(chǎn)生一定壓制,而在功率占比較小時,回波容易被噪聲淹沒。盡管信號功率變化對模型的識別性能產(chǎn)生了一定影響,但算法仍然表現(xiàn)出良好的識別效果,這表明模型具有一定的魯棒性。

        3.4 不同改進方式的消融實驗

        為了驗證使用多標(biāo)簽分類算法、SimAM注意力機制、FReLU激活函數(shù)和結(jié)構(gòu)調(diào)整改進對ShuffleNet V2網(wǎng)絡(luò)帶來的性能提升效果,進行了消融實驗。在實驗中,模型1表示原模型,模型2表示僅添加SimAM注意力機制模塊,模型3表示僅替換FReLU激活函數(shù),模型4表示僅添加多標(biāo)簽分類,模型5表示僅進行結(jié)構(gòu)調(diào)整,模型6表示綜合所有改進,消融實驗的結(jié)果如表2所示。

        從表2可以觀察到,引入SimAM注意力機制,模型的參數(shù)量和運算量基本不變,而且識別率為96.4%,比原模型提升了3.3%。當(dāng)引入FReLU激活函數(shù)時,模型的參數(shù)量增加了0.2 M,但是識別率為95.3%,比原模型提升了2.2%。當(dāng)引入多標(biāo)簽算法時,模型的參數(shù)量和運算量基本不變,識別率為96.1%,比原模型提升了3%。當(dāng)對模型進行結(jié)構(gòu)調(diào)整后,參數(shù)量減少了0.57 M,運算量減少了0.04 G,識別率為95.5%。最后,改進模型ML SNet的識別率為97.9%,提升了4.8%,而參數(shù)量和浮點運算量分別降低了37.7%和30.7%,驗證了所提改進方式能夠提升算法對復(fù)合干擾的識別性能。

        3.5 不同算法模型對比分析

        為驗證本文所提ML SNet算法的優(yōu)越性,將本文算法模型與ShuffleNet V2模型、殘差網(wǎng)絡(luò)(residual network, ResNet)34模型、EfficientNet模型、MobileNet V2模型和文獻[24]算法所提模型進行對比實驗,6個模型在不同JNR下的識別率如圖8所示。從圖8可以看出,隨著JNR的增大,ML SNet算法的識別率逐漸增加,并且在JNR為-2 dB時,識別率達到99.3%。在JNR為-10 dB時,MobileNet V2模型、ResNet34模型和ShuffleNet V2模型的識別率均低于80%,EfficientNet模型的識別率為81.7%,文獻[24]算法所提模型的識別率為87.5%,而ML SNet模型的識別率達到了89.3%,體現(xiàn)了本文算法在低信噪比環(huán)境下的優(yōu)

        越性能。相對于其他5種模型,本文算法模型的整體識別率更優(yōu),驗證了本文算法的優(yōu)越性。

        表3所示為6種模型對15類復(fù)合干擾的識別結(jié)果,每一類復(fù)合干擾的最佳結(jié)果以粗體突出顯示。本文算法ML SNet對大多數(shù)干擾組合都取得了最好的識別率,其中CI+COMB、CI+SMSP、COMB+SMSP和COMB+NP對復(fù)合干擾的識別率均達到100%。但是,ML SNet模型對CI+ISDJ、CI+NC、ISDJ+COMB和NP+NC的識別準(zhǔn)確率不是最佳。由于NC和NP為新型靈巧干擾,不僅具備欺騙效果,也具備壓制效果。在低JNR情況下,對模型識別影響較大。ISDJ干擾和COMB干擾在時頻特征上非常相似,在識別過程中容易被混淆。CI干擾由于時頻特征范圍較小,容易被其他干擾和噪聲掩蓋,導(dǎo)致模型對其識別較為困難??傮w而言,本文所提ML SNet算法在多樣化的復(fù)合干擾環(huán)境中表現(xiàn)出色,在復(fù)雜的電磁環(huán)境下具備強大的抗干擾能力,其性能相對于其他網(wǎng)絡(luò)更為出眾。

        3.6 模型計算復(fù)雜度對比

        神經(jīng)網(wǎng)絡(luò)的復(fù)雜度主要包括空間復(fù)雜度和時間復(fù)雜度??臻g復(fù)雜度由網(wǎng)絡(luò)的可學(xué)習(xí)參數(shù)量決定,時間復(fù)雜度則通過分析每輪訓(xùn)練迭代時間和單個樣本平均識別時間兩個方面來評估30。本文提出的ML SNet與MobileNet V2、EfficientNet、ResNet34、ShuffleNet V2和文獻[24]的復(fù)雜度對比結(jié)果如表4所示。

        從表4中可以看出,本文提出的ML SNet算法的空間復(fù)雜度最低,且在每輪訓(xùn)練時間和平均識別時間上均優(yōu)于其他模型。這充分體現(xiàn)了輕量化深度學(xué)習(xí)模型的優(yōu)勢,其特別適用于資源受限或?qū)π室筝^高的應(yīng)用場景。

        4 結(jié) 論

        本文介紹了一種輕量化的ML SNet雷達復(fù)合干擾識別算法。該算法通過提取雷達復(fù)合干擾時頻圖像的特征信息,結(jié)合多標(biāo)簽輸出算法,可以實現(xiàn)對15類雷達復(fù)合干擾的有效分類。實驗結(jié)果表明,在JNR范圍為-10~10 dB的環(huán)境下,該算法對15類信號的識別準(zhǔn)確率為97.9%。在JNR為-2 dB的環(huán)境下,算法識別準(zhǔn)確率可達99.3%,驗證了所提算法的有效性。

        本文所提算法在ShuffleNet V2網(wǎng)絡(luò)的基礎(chǔ)上,引入SimAM注意力機制、使用FReLU激活函數(shù)以及進行結(jié)構(gòu)調(diào)整,并且結(jié)合多標(biāo)簽輸出算法,增強了網(wǎng)絡(luò)特征提取能力,降低了網(wǎng)絡(luò)計算復(fù)雜度。通過消融實驗,驗證了各改進方式能夠有效提高算法的識別能力。通過與5種網(wǎng)絡(luò)進行對比實驗,結(jié)果表明ML SNet算法的識別性能和魯棒性最佳,而且計算復(fù)雜度低于其他網(wǎng)絡(luò),體現(xiàn)了結(jié)合改進ShuffleNet V2網(wǎng)絡(luò)和多標(biāo)簽分類算法的有效性。

        參考文獻

        [1]GENG Z, YAN H J, ZHANG J D, et al. Deep learning for radar: a survey[J]. IEEE Access, 2021, 9: 141800-141818.

        [2]LI K, BO J, WANG P H, et al. Radar active antagonism through deep reinforcement learning: a way to address the challenge of mainlobe jamming[J]. Signal Processing, 2021, 186: 108130.

        [3]TAN M, WANG C Y, XUE B, et al. A novel deceptive jamming approach against frequency diverse array radar[J]. IEEE Sensors Journal, 2020, 21(6): 8323-8332.

        [4]LYU Q Z, QUAN Y H, FENG W, et al. Radar deception jamming recognition based on weighted ensemble CNN with transfer learning[J]. IEEE Trans.on Geoscience and Remote Sensing, 2021, 60: 5107511.

        [5]ZHAO Y J, TIAN B, WANG C Y, et al. Research on main lobe deceptive jamming against FDA MIMO radar[J]. IET Radar, Sonar amp; Navigation, 2021, 15(6): 641-654.

        [6]LUO Z, CAO Y, YEO T S, et al. Few shot radar jamming re cognition network via time frequency self attention and global knowledge distillation[J]. IEEE Trans.on Geoscience and Remote Sensing, 2023, 61: 5105612.

        [7]SHI C W, ZHANG Q, LIN T, et al. Recognition of micro motion jamming based on complex valued convolutional neural network[J]. Sensors, 2023, 23(3): 1118.

        [8]ZHOU H P, WANG L, MA M, et al. Compound radar jamming recognition based on signal source separation[J]. Signal Processing, 2024, 214: 109246.

        [9]SHAO G P, CHEN Y, WEI Y. Deep fusion for radar jamming signal classification based on CNN[J]. IEEE Access, 2020, 8: 117236-117244.

        [10]LIN A, MA Z Y, HUANG Z, et al. Unknown radar waveform recognition based on transferred deep learning[J]. IEEE Access, 2020, 8: 184793-184807.

        [11]ZHAO S S, ZHOU Y, ZHANG L R, et al. Discrimination between radar targets and deception jamming in distributed multiple radar architectures[J]. IET Radar, Sonar amp; Navigation, 2017, 11(7): 1124-1131.

        [12]GRECO M, GINI F, FAFINA A. Radar detection and classification of jamming signals belonging to a cone class[J]. IEEE Trans.on Signal Procession, 2008, 56(6): 1984-1993.

        [13]SU D T, GAO M G. Research on jamming recognition techno logy based on characteristic parameters[C]∥Proc.of the IEEE 5th International Conference on Signal and Image Processing, 2020: 303-307.

        [14]朱峰, 蔣倩倩, 林川, 等. 基于支持向量機的典型寬帶電磁干擾源識別[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(9): 2400-2406.

        ZHU F, JIANG Q Q, LIN C, et al. Typical wideband EMI identification based on support vector machine[J]. Systems Engineering and Electronics, 2021, 43(9): 2400-2406.

        [15]GAO M, LI H T, JIAO B, et al. Simulation research on classification and identification of typical active jamming against LFM radar[C]∥Proc.of the 17th International Conference on Signal Processing Systems, 2019: 214-221.

        [16]YAO Z K, TANG C B, WANG C, et al. Cooperative jamming resource allocation model and algorithm for netted radar[J]. Electronics Letters, 2022, 58(22): 834-836.

        [17]LING Q, HUANG P H, WANG D H, et al. Range deception jamming performance evaluation for moving targets in a ground based radar network[J]. Electronics, 2023, 12(7): 1614.

        [18]FENG L W, LIU S T, XU H Z. Multifunctional radar cognitive jamming decision based on dueling double deep Q network[J]. IEEE Access, 2022, 10: 112150-112157.

        [19]QU Q Z, WEI S J, LIU S, et al. JRNet: jamming recognition networks for radar compound suppression jamming signals[J]. IEEE Trans.on Vehicular Technology, 2020, 69(12): 15035-15045.

        [20]SHAO G Q, CHEN Y S, WEI Y S. Deep fusion for radar jamming signal classification based on CNN[J]. IEEE Access, 2020, 8: 117236-117244.

        [21]張順生, 陳爽, 陳曉瑩, 等. 面向小樣本的多模態(tài)雷達有源欺騙干擾識別方法[J]. 雷達學(xué)報, 2023, 12(4): 882-891.

        ZHANG S S, CHEN S, CHEN X Y, et al. Active deception jamming recognition method in multimodal radar based on small samples[J]. Journal of Radars, 2023, 12(4): 882-891.

        [22]ZHANG J X, ZHOU Z, LIU C, et al. Radar compound jamming cognition based on a deep object detection network[J]. IEEE Trans.on Aerospace and Electronic Systems, 2022, 59(3): 3251-3263.

        [23]FU R R. Compound jamming signal recognition based on neural networks[C]∥Proc.of the International Conference on Instrumentation amp; Measurement, Computer, Communication and Control, 2016: 737-740.

        [24]XIAO Y H, ZHOU J Y, YU Y Z, et al. Active jamming recognition based on bilinear EfficientNet and attention mechanism[J]. IET Radar, Sonar amp; Navigation, 2021, 15(9): 957-968.

        [25]ZHANG S J, YANG H, YUAN W, et al. Edge device detection of tea leaves with one bud and two leaves based on ShuffleNetV2 YOLOV5 Lite E[J]. Agronomy, 2023, 13(2): 557.

        [26]CAI Z Y, QIAO X Y, ZHANG J W, et al. RepVGG SimAM: an efficient bad image classification method based on RepVGG with simple parameter free attention module[J]. Applied Sciences, 2023, 13(21): 11925.

        [27]QIU S, XU X M, CAI B L. FReLU: flexible rectified linear units for improving convolutional neural networks[C]∥Proc.of the 24th International Conference on Pattern Recognition, 2018: 1223-1228.

        [28]程玉勝, 趙大衛(wèi), 王一賓, 等. 非平衡化標(biāo)簽補全核極限學(xué)習(xí)機多標(biāo)簽學(xué)習(xí)[J]. 電子學(xué)報, 2019, 47(3): 719-725.

        CHENG Y S, ZHAO D W, WANG Y B, et al. Multi label learning of kernel extreme learning machine with non equilibrium label completion[J]. Journal of Electronics, 2019, 47(3): 719-725.

        [29]ZHU M T, LI Y J, PAN Z S, et al. Automatic modulation re cognition of compound signals using a deep multi label classifier: a case study with radar jamming signals[J]. Signal Processing, 2020, 169: 107393.

        [30]邵正途, 許登榮, 徐文利, 等. 基于LSTM和殘差網(wǎng)絡(luò)的雷達有源干擾識別[J]. 系統(tǒng)工程與電子技術(shù), 2023, 45(2): 416-423.

        SHAO Z T, XU D R, XU W L, et al. Radar active jamming recognition based on LSTM and residual network[J]. Systems Engineering and Electronics, 2023, 45(2): 416-423.

        作者簡介

        郭立民(1977—),男,副教授,博士,主要研究方向為寬帶雷達信號檢測。

        黃文青(1999—),男,碩士研究生,主要研究方向為雷達干擾識別。

        陳 前(2001—),男,碩士研究生,主要研究方向為雷達接收機。

        王佳賓(2000—),男,碩士研究生,主要研究方向為雷達接收機。

        日韩av无码一区二区三区不卡| 日本激情视频一区在线观看| 日韩av综合色区人妻| 国产91精品高潮白浆喷水| 精品久久久久久无码人妻蜜桃| 伦人伦xxxx国语对白| 中文字幕亚洲无线码高清| 91久久精品一二三区色| 精品一二三四区中文字幕| 精品国产一区二区三区av片| 国产午夜精品一区二区三区视频| 亚洲av精品一区二区三| 国产91色综合久久高清| 久久久无码人妻精品无码| chinesefreexxxx国产麻豆| 久久久精品中文无码字幕| 亚洲熟女乱一区二区三区| 久热re这里精品视频在线6| 精品无码一区二区三区爱欲九九| 欧美亚洲国产精品久久久久| 一区二区三区四区亚洲免费| 丰满少妇a级毛片| 亚洲国产精品久久久久久久 | 无遮挡呻吟娇喘视频免费播放| 亚洲国产中文在线二区三区免| 网友自拍人妻一区二区三区三州| 国产精品亚洲av高清二区| 国产成人精品白浆久久69| 在线一区不卡网址观看| 国产成人自拍视频在线观看网站 | 亚洲青青草视频在线播放| 男男亚洲av无一区二区三区久久 | 欧美精品偷自拍另类在线观看| 无码视频一区=区| 蜜臀av一区二区三区久久| 97久久超碰国产精品旧版| 国产一级毛片AV不卡尤物| 久久综合加勒比东京热| 中国孕妇变态孕交xxxx| 女人做爰高潮呻吟17分钟| av网站免费线看|