亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合信號多域特征和Transformer的干擾識別

        2024-11-23 00:00:00陽鵬飛何羚王茜王睿笛張明志

        摘要: 針對無線通信信道易受到蓄意射頻信號干擾問題,提出了一種從混合信號中識別干擾類型的方法。通過改進(jìn)經(jīng)典Transformer結(jié)構(gòu),形成新型網(wǎng)絡(luò)模型Multidomain-former,以提取多域特征和識別信號干擾類型。首先,通過特定的序列劃分機(jī)制對輸入頻譜進(jìn)行預(yù)處理,并通過線性嵌入和位置編碼保留原始順序特征;其次,設(shè)計(jì)了逆傅氏變換和傅氏變換結(jié)合的編碼模塊,使Multidomain-former能同時提取頻域和時域特征。使用通用儀器和收發(fā)天線搭建了無線收發(fā)信道,在不同干信比條件下對混合信號頻譜進(jìn)行采集,得到訓(xùn)練集和測試集。干擾對比實(shí)驗(yàn)通過所提Multidomain-former網(wǎng)絡(luò)模型完成,并將經(jīng)典的Transformer結(jié)構(gòu)和其他常見的深度學(xué)習(xí)模型與所提網(wǎng)絡(luò)模型進(jìn)行了對比。對比實(shí)驗(yàn)結(jié)果表明,在干信比小于10 dB時,所提模型性能相較于經(jīng)典Transformer在識別正確率方面有2%~3%的提升;在干信比等于-5 dB時,所提模型以最少參數(shù)量和次低計(jì)算復(fù)雜度獲得了比另外5種基準(zhǔn)網(wǎng)絡(luò)高3.0%~9.3%的識別率。

        關(guān)鍵詞: 混合信號; 多域特征提取; 干擾識別; Transformer; 干信比

        中圖分類號: TN 973.1

        文獻(xiàn)標(biāo)志碼: A

        DOI:10.12305/j.issn.1001-506X.2024.06.32

        Interference identification based on mixed signal multidomain feature and Transformer framework

        YANG Pengfei1, HE Ling1,2, WANG Qian1,2,*, WANG Ruidi1, ZHANG Mingzhi1

        (1. School of Aeronautics and Astronautics, University of Electronic Science and Technology of China, Chengdu 611731, China; 2. Aircraft Swarm Intelligent Sensing and Cooperative Control Key Laboratory of Sichuan Province, Chengdu 611731, China)

        Abstract: Aiming at the vulnerability of wireless communication channels to interference from intentional radio frequercy signals, a method of interference identification from mixed signals is presented. In this work, a novel Transformer model named Multidomain-former is devised to serve as the multidomain features extractor and jamming types recognizer. The proposed model is built with the following characteristics: the original spectral data is firstly preprocessed by a specific sequence partitioning mechanism. Meanwhile, the initial sequence features are reserved by linear embedding and position coding. Secondly, an encoding module which jointly adopting inverse Fourier transform and Fourier transform is designed, by this means Multidomain-former can obtain both frequency domain and time domain features. A real wireless transceiver channel is established utilizing universal instruments and transceiver antennas, and the mixed signal spectrum is collected subject to different jamming-to-signal ratios (JSR) to form training and test data sets. The interference classification experiments are carried out sequentially by the proposed Multidomain-former, in comparison with the classic Transformer and other popular deep learning networks as well. It is shown that Multidomain-former achieves the best performance with the least number of parameters and lower complexity. With the condition of the JSR is less than 10 dB, the probability for correct classification of Multidomain-former is 2%~3% higher than that of classic Transformer. When the JSR is equal to -5 dB, the performance of Multidomain-former is proofed to increase by 3.0%~9.3% on correct classification rate compared with other benchmarks.

        Keywords: mixed signal; multidomain feature extraction; interference identification; Transformer; jamming-to-signal ratio (JSR)

        0 引 言

        無線通信被廣泛應(yīng)用于移動通信、物聯(lián)網(wǎng)、衛(wèi)星通信等領(lǐng)域。信道的開放性使無線通信極易受到各種蓄意射頻干擾,為保障通信質(zhì)量,通常需要針對性地采取各種抗干擾手段。因此,快速、準(zhǔn)確地識別干擾類型是有效抑制干擾的重要前提。

        在干擾信號識別領(lǐng)域,基于特征(包括但不限于統(tǒng)計(jì)特征、頻譜分布、時域或頻域特征等)的方法是近年來的主流研究方向和熱點(diǎn)。一些代表性解決方案包括:文獻(xiàn)[1]通過小波包分解重構(gòu)將干擾信號劃分為不同頻段,然后提取三階累積量切片特征構(gòu)造特征矩陣,并用奇異值分解對特征進(jìn)行降維,最后通過稀疏表示分類在不同頻段上對干擾信號進(jìn)行分類識別;文獻(xiàn)[2]從頻域數(shù)據(jù)中提取3個關(guān)鍵頻域特征(占用帶寬、中心頻率和接收信號功率譜密度(power spectral density, PSD),使用貝葉斯分類器進(jìn)行干擾分類;文獻(xiàn)[3]運(yùn)用核密度估計(jì)提取頻域特征,然后通過樸素貝葉斯分類算法進(jìn)行分類,在干噪比(jamming-to-noise ratio, JNR)為0 dB的條件下對6種有意干擾的識別率達(dá)到了100%;文獻(xiàn)[4]通過分析時變干擾信號的PSD實(shí)現(xiàn)干擾分類。上述方法的有效性主要依賴于特征的人為選擇及其提取,通常計(jì)算復(fù)雜度高。

        基于深度學(xué)習(xí)的特征提取方法在很大程度上解放了對人工的倚重,使信號識別應(yīng)用更加普及。運(yùn)用于干擾分類問題的深度學(xué)習(xí)特征提取方案包括:文獻(xiàn)[5]將干擾信號的時域同相和正交分量(in-phase and quadrature modulation,IQ)數(shù)據(jù)直接輸入卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)中,并根據(jù)樣本數(shù)量分別設(shè)計(jì)不同的CNN用于識別;文獻(xiàn)[6]將干擾信號時域IQ轉(zhuǎn)換為瀑布圖,然后通過改進(jìn)的CNN進(jìn)行圖像識別;文獻(xiàn)[7]將信號經(jīng)短時傅里葉變換(short time Fourier transform,STFT)后的時頻圖像作為輸入,提出一種以倒殘差結(jié)構(gòu)為主體的CNN架構(gòu),并引入聯(lián)合時頻通道注意力機(jī)制模塊,從時頻圖像中同時提取時頻域和通道域的聯(lián)合特征,在JNR等于-8 dB時實(shí)現(xiàn)了對8類干擾類型的100%的識別率;文獻(xiàn)[8]提出一種基于CNN的融合特征提取方法:使用一維CNN提取原始干擾信號的一維特征,同時對干擾信號進(jìn)行STFT得到時頻圖,再用二維CNN提取深度時頻特征,應(yīng)用融合網(wǎng)絡(luò)對上述CNN提取的特征進(jìn)行深度融合,最后利用Softmax完成干擾信號分類;文獻(xiàn)[9]則提出了一種基于長短時記憶(long short term memory,LSTM)網(wǎng)絡(luò)并與殘差網(wǎng)絡(luò)相結(jié)合的雷達(dá)有源干擾識別方法,在JNR等于0 dB時對4類干擾信號的識別準(zhǔn)確率均高于98.3%。但是,這一類方法在工程應(yīng)用中面臨挑戰(zhàn):實(shí)際的電磁對抗場景通常都會根據(jù)偵查結(jié)果采用瞄準(zhǔn)式干擾策略,即同頻干擾信號會和被干擾的有用信號(signal of interest, SOI)同時出現(xiàn)。而上述基于深度學(xué)習(xí)的干擾分類識別方法均只考慮了干擾信號單獨(dú)存在的場景,所用仿真驗(yàn)證也限于各種JNR條件,既缺乏針對SOI與干擾并存的混合信號的解決方案,更鮮見在不同干信比(jamming-to-signal ratio, JSR)或信干噪比(signal-to-interference-plus-noise ratio, SINR)條件下的試驗(yàn)。究其原因,主要在于CNN或LSTM等網(wǎng)絡(luò)對特征的提取聚焦于某種單一信號的局部細(xì)節(jié),而對混合信號及其變換形式的全局特征則學(xué)習(xí)困難。

        總體而言,傳統(tǒng)方法的分類識別性能主要依賴于特征集選擇及其提取方法,耗時且需經(jīng)驗(yàn)輔助,尤其是變換域特征提取所需的運(yùn)算量大,致使常規(guī)分類器性能提升空間有限;CNN的優(yōu)異非線性處理能力使其能夠有效抽取高維數(shù)據(jù)的隱藏特征,LSTM可以學(xué)習(xí)到歷史信息因而更適合于處理有序序列,但因這些網(wǎng)絡(luò)模型在全局信息的學(xué)習(xí)能力方面有欠缺,使得現(xiàn)有研究均未對同時含有SOI和干擾信號的混合信號進(jìn)行干擾識別。實(shí)驗(yàn)表明,對于同時存在SOI和干擾信號(尤其是SOI與干擾信號功率相當(dāng))的場景,無論特征提取、CNN還是LSTM方法,都難以獲得理想的識別效果,因而不能滿足實(shí)際需求。

        1 混合信號模型

        設(shè)接收機(jī)接收到的混合信號為

        r(t)=s(t)+J(t)+n(t) (1)

        式中:s(t)為SOI;J(t)為有意干擾信號;n(t)為高斯白噪聲。

        對于SOI,工程中通常采用具有一定抗干擾能力的通信體制,本文采用直序擴(kuò)頻-跳頻混合體制的s(t),其表達(dá)式為

        s(t)=∑+∞k=-∞d(t)c(t)cos(2πfkt+φk)gTc(t-kTc)(2)

        式中:d(t)為編碼后的基帶信息;c(t)為直序擴(kuò)頻碼;fk為跳頻載波頻率;φk為載波初始相位;gTc(t-kTc)為高為1、底邊寬為Tc(Tc為擴(kuò)頻碼碼元寬度)的閘門函數(shù),定義如下:

        gTc(t)=1, |t|≤Tc2

        0, |t|gt;Tc2 (3)

        設(shè)發(fā)射機(jī)頻率綜合器的載波頻率數(shù)為M,載波頻率分別為f0,f1,…,fM-1,則fk可通過下式得到:

        fk=f0+Ckfd(4)

        式中:Ck為對應(yīng)于跳頻圖案的一組自然數(shù),Ck∈{0,1,2,…,M-1};fd為跳頻頻率間隔。

        常見的無線通信干擾信號J(t)[10包括單音干擾(continuous wave jamming, CWJ)、多音干擾(multi-tone jamming, MTJ)、脈沖干擾(pulse jamming, PJ)、掃頻干擾(li-near frequency modulation jamming, LFMJ)、部分頻帶寬帶噪聲干擾(partial band wide jamming, PBWJ)和部分頻帶窄帶噪聲干擾(partial band narrow jamming, PBNJ)。信號模型分別介紹如下。

        CWJ信號的表達(dá)式為

        J(t)=PJexp[j(2πfJt+φJ)](5)

        式中:PJ為干擾信號的功率;fJ為干擾信號的中心頻率;φJ∈[0,2π]為干擾信號的初始相位。CWJ對式(2)所示信號的干擾效果有限,可通過常見濾波手段達(dá)到抑制效果,在此不作為重點(diǎn)。

        MTJ信號的表達(dá)式為

        J(t)=∑NTk=1PT(k)exp[j(2πfT(k)t+φk)](6)

        式中:NT為MTJ的音頻數(shù)目;PT(k)為第k個音頻的功率;fT(k)為第k個音頻的中心頻率;φk∈[0,2π]為第k個音頻的初始相位。

        PJ的表達(dá)式為

        J(t)=AP∑∞k=-∞ut+kT+τ2-ut+kT-τ2,k∈Z(7)

        式中:Ap為矩形脈沖的幅度;T為脈沖重復(fù)周期;τ為單周期內(nèi)的脈沖寬度;u(t)為單位階躍函數(shù)。

        LFMJ信號的表達(dá)式為

        式中:Tsw為掃頻干擾持續(xù)時間;fL、fH分別為掃頻干擾信號的起始頻率和終止頻率。

        將高斯白噪聲信號輸入帶通濾波器,可生成不同的部分頻帶噪聲干擾信號。通過設(shè)置干擾因子α(0<α<1)的大小,即可改變?yōu)V波器參數(shù)。部分頻帶噪聲干擾信號的數(shù)學(xué)表達(dá)式為

        J(t)=∫-Un(t)w(t-τ)dτ(9)

        式中:Un(t)為高斯白噪聲信號;w(t)表示帶通濾波器,其頻率響應(yīng)W(jω)可表示為

        W(jω)=1, |ω-ωc|lt;αωall

        0, 其他 (10)

        式中:ωc表示帶通濾波器的截止頻率,ωall表示SOI的工作頻段帶寬。可知:當(dāng)干擾因子α gt; 0.3時,式(8)表示PBWJ;當(dāng)α ≤ 0.3時,式(8)表示PBNJ。

        因干擾效能更顯見于頻域,常用頻譜分析儀對混合信號進(jìn)行觀測。以固定采樣率fs對混合信號r(t)進(jìn)行時域采樣,并通過K點(diǎn)離散傅氏變換將離散時域信號轉(zhuǎn)換為復(fù)頻域數(shù)據(jù)X(k)(k=0,1,…,K-1),由此作為后續(xù)特征提取及識別部分的輸入信號。

        2 基于特定Transformer結(jié)構(gòu)的混合信號多域特征提取

        2.1 可提取信號多域特征的Multidomain-former框架

        通過混合信號頻譜識別其中存在的干擾類型,亦可理解為在全局信息中提取位置敏感特征,這種應(yīng)用需求正好契合Transformer擁有全局信息的特點(diǎn)[11。本文基于Transformer模型進(jìn)行干擾識別,一方面期望獲得盡可能精確的識別結(jié)果,另一方面可借助并行訓(xùn)練實(shí)現(xiàn)低延遲。

        本文在經(jīng)典Transformer結(jié)構(gòu)的基礎(chǔ)上,根據(jù)應(yīng)用需要改進(jìn)形成一種特定的網(wǎng)絡(luò)模型——Multidomain-former,其框架如圖1所示。

        相較于經(jīng)典Transformer結(jié)構(gòu),本文所提Multidomain-former結(jié)構(gòu)在以下方面進(jìn)行了全新設(shè)計(jì):

        首先通過一種類似于滑動幀的序列劃分方法,對原始頻域數(shù)據(jù)進(jìn)行預(yù)處理,將頻譜轉(zhuǎn)換為適用于Transformer的序列,并通過線性嵌入和位置編碼保留了原始數(shù)據(jù)的順序特征;

        其次,經(jīng)典Transformer結(jié)構(gòu)中編碼器encoder的核心是多頭注意力(multi-head attention,MHA),對于輸入Transformer的頻域序列,如直接采用未加改造的MHA機(jī)制,只能學(xué)習(xí)到混合信號的頻域特征(事實(shí)上,如果輸入Transformer的是時域序列,MHA也同樣只能學(xué)習(xí)到時域特征);而多域特征的融合無疑會提高識別率。本文為此專門設(shè)計(jì)了一種基于逆傅里葉變換(inverse fast Fourier transform,IFFT)和快速傅里葉變換(fast Fourier transform,F(xiàn)FT)的方案——IFFT-FFT編碼模塊,目的是通過IFFT引入時域信息。以IFFT-FFT編碼模塊替換經(jīng)典Transformer encoder中的MHA,并與經(jīng)典Transformer encoder搭配使用,從而使構(gòu)造的Multidomain-former具有同時提取頻域和時域特征的能力。

        2.2 輸入數(shù)據(jù)預(yù)處理

        2.2.1 原始頻域序列劃分

        一般地,通用Transformer模型使用卷積層實(shí)現(xiàn)對輸入序列的劃分。卷積操作提取的是截?cái)嗟木植刻卣?,而本文研究的長為K的混合信號頻域序列X(k)對每個頻域樣點(diǎn)位置敏感,不同樣點(diǎn)出現(xiàn)的位置代表著干擾信號對SOI的不同影響,即隱含了干擾類型相關(guān)信息,因此不能直接將頻域序列X(k)應(yīng)用于Transformer。為使序列處理具有前后關(guān)聯(lián)性,本文提出了一種類似滑動幀的序列劃分方法,以此克服卷積操作只能學(xué)習(xí)局部特征的局限。

        以L為頻域數(shù)據(jù)子幀長,以μ為滑動步長,將FFT后的頻域數(shù)據(jù)劃分為M個子幀,如圖2所示。參數(shù)L、μ、M與離散傅氏變換點(diǎn)數(shù)K有如下關(guān)系:M=(K-L)/μ+1。由此,得到一個M×L維復(fù)數(shù)矩陣X:

        式中:Xm∈R1×L(m=0,1,…,M-1)表示劃分后得到的第m個子幀數(shù)據(jù)。

        2.2.2 線性嵌入和位置編碼

        鑒于Transformer使用注意力機(jī)制而不是順序結(jié)構(gòu),丟失X∈RM×L的位置信息將會導(dǎo)致識別率下降,因此還需要在輸入Transformer之前對序列X進(jìn)行線性嵌入和位置編碼,使順序特征得以保留。該操作的數(shù)學(xué)表達(dá)如下:

        XIN=C

        XE+Epos(12)

        式中:XIN∈R(M+1)×L為嵌入向量序列;C∈R1×L為類標(biāo)記;E∈RL×L為線性嵌入矩陣;Epos∈R(M+1)×L為位置編碼矩陣。

        在這個過程中,一維線性矩陣C、E均為隨機(jī)初始化的可學(xué)習(xí)參數(shù)。類標(biāo)記C在預(yù)訓(xùn)練時通過1個隱藏的多層感知器(multi-layer perception, MLP)實(shí)現(xiàn),在微調(diào)時則通過1個線性層實(shí)現(xiàn);線性嵌入矩陣E用來保留位置信息,所得嵌入向量序列XIN作為Transformer編碼器的輸入[12。

        2.3 Transformer編碼模塊

        Transformer編碼模塊的結(jié)構(gòu)由LN(LayerNorm)層、MHA和MLP組成。

        LN用于緩解因神經(jīng)網(wǎng)絡(luò)深度導(dǎo)致的梯度消失問題。第n個(n=1,2,…,N。本文中N=3)Transformer encoder的輸入Zn為(M+1)×L矩陣;第1個LN層的輸出ZnLN1∈R(M+1)×L可表示為

        ZnLN1=LayerNorm(Zn) (13)

        LN層之后為MHA。以h表示在MHA中執(zhí)行多頭注意力操作的次數(shù)(本文中h=4),則MHA的計(jì)算步驟如下。

        步驟 1 對末級LN層輸出進(jìn)行特征嵌入,得到中間矩陣Qn、Kn、Vn。

        Qn=Kn=Vn=ZnLN1Rn(14)

        式中:Rn∈RL×L為嵌入矩陣。

        步驟 2 分別計(jì)算查詢矩陣Qni、鍵矩陣Kni和值矩陣Vni。

        Qni=QnRQi

        Kni=KnRKi

        Vni=VnRVi(15)

        式中:RQi,RKi,RVi為L×dp維參數(shù)矩陣,其中dp=L/h,i=1,2,…,h。

        步驟 3 通過注意力機(jī)制Attention(·),計(jì)算headi值。

        headi=Attention(Qni,Kni,Vni)=Softmax

        Qni(KniTdp(16)

        步驟 4 將多個headi拼接起來并乘以可學(xué)習(xí)矩陣RnO,計(jì)算多頭注意力Multiheadn。

        Multiheadn=[head1 head2 … headh]RnO(17)

        式中:RnO∈Rdph×L

        步驟 5 將Multiheadn與ZnLN1相加形成殘差結(jié)構(gòu),得到MHA的輸出ZnMHA。

        ZnMHA=Multiheadn+ZnLN1(18)

        在MHA之后進(jìn)入MLP。MLP由2個線性層和1個激活層組成,可知Transformer encoder的輸出ZnOut∈R(M+1)×L

        ZnMLP=Linear(max(0,Linear(LayerNorm(ZnMHA)))

        ZnOut=ZnMHA+ZnMLP(19)

        2.4 IFFT-FFT編碼模塊

        IFFT-FFT編碼模塊依次由LN層、IFFT-FFT結(jié)構(gòu)和MLP組成。

        其中,IFFT-FFT encoder的LN層與Transformer encoder類似,第n個(n={1,2,3})IFFT-FFT encoder的輸入Znout也是(M+1)×L矩陣;第1個LN層的輸出XnLN1∈R(M+1)×L可表示為

        XnLN1=LayerNorm(Znout)(20)

        此時,XnLN1仍然只含頻域特征。為了提取時域特征,需將XnLN1進(jìn)行IFFT操作,與1個可學(xué)習(xí)的權(quán)值參數(shù)矩陣WnC進(jìn)行點(diǎn)乘,再通過FFT還原到頻域XnT。這個過程可表示如下:

        XnT=FFT(IFFT(XnLN1)*WnC)(21)

        式中:WnC∈R(M+1)×L。

        FFT之后,使用與Transformer encoder中相同的MLP結(jié)構(gòu)對XnT進(jìn)行線性變換和激活處理。最后與輸入ZnOut相加,形成殘差結(jié)構(gòu),得到IFFT-FFT encoder的輸出XnOut∈R(M+1)×L

        XnMLP=Linear(max(0,Linear(LayerNorm(XnT)))

        XnOut=ZnOut+XnMLP(22)

        由式(22)可見,XnOut中既包含經(jīng)過Transformer encoder處理的頻域數(shù)據(jù)Znout,也包含體現(xiàn)了時域特征的XnT。對XnOut進(jìn)一步做線性變換和Softmax多分類,完成基于時、頻域聯(lián)合特征的干擾信號類型識別。

        3 實(shí)驗(yàn)驗(yàn)證

        3.1 實(shí)驗(yàn)環(huán)境搭建與數(shù)據(jù)集獲取

        為驗(yàn)證所提Multidomain-former模型對混合信號多域特征提取及干擾識別的有效性,本文使用天線和通用測試儀器搭建了無線收發(fā)場景并進(jìn)行實(shí)驗(yàn)。場景圖如圖3所示,儀器設(shè)備信息如表1所示。其中:CF表示中心頻率,BW表示帶寬,Span表示頻率跨度,RBW表示分辨率帶寬,VBW為視頻帶寬。混合信號模擬所需的參數(shù)配置如表2所示。

        實(shí)驗(yàn)主要關(guān)注不同JSR下的干擾類型識別情況,JSR變化(范圍為-5~20 dB,步進(jìn)為5 dB)通過改變干擾信號功率實(shí)現(xiàn),而SOI功率保持不變,因此可視為信噪比保持不變。在不同的JSR條件下,使用頻譜儀N9030B對表2所述SOI與5種干擾信號形成的混合信號分別采集200次頻域數(shù)據(jù),然后按照3∶1的比例劃分得到訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。

        在前文所述的原始數(shù)據(jù)劃分方法中,子幀長度L和步進(jìn)μ均為可調(diào)參數(shù)。當(dāng)步進(jìn)固定為μ=0.5L時,表3給出了在JSR等于-5 dB條件下不同子幀長度值對所提Multidomain-former模型的網(wǎng)絡(luò)參數(shù)量、代表計(jì)算復(fù)雜度的每秒浮點(diǎn)運(yùn)算次數(shù)(floating-point operations per second,F(xiàn)LOPS)和平均識別率的影響。

        由表3可知,當(dāng)子幀長度L小于64時,平均識別率隨著L的增加而略有提高;當(dāng)L大于80時,平均識別率反而下降。權(quán)衡之后選擇L=64,以獲得各項(xiàng)性能的折中。

        3.2 實(shí)驗(yàn)結(jié)果分析

        本文所提網(wǎng)絡(luò)模型Multidomain-former以及其他對比用的基準(zhǔn)網(wǎng)絡(luò)模型的訓(xùn)練和測試均基于Windows 11環(huán)境、Python 3.10平臺設(shè)計(jì)實(shí)現(xiàn),具體配置如下。

        CPU:AMD Ryzen, 5800H with Radeon Graphics。

        GPU:NVIDIA GeForce RTX3060 Laptop GPU。

        神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架:Pytorch 1.21.1。

        網(wǎng)絡(luò)優(yōu)化器:Adam,學(xué)習(xí)率固定為0.000 1,批量樣本數(shù)為16,訓(xùn)練回合數(shù)為30。

        圖4給出了Multidomain-former與經(jīng)典Transformer網(wǎng)絡(luò)在不同JSR下對混合信號中的干擾進(jìn)行識別的表現(xiàn),其中經(jīng)典模型中的Transformer encoder的識別數(shù)為N=6;圖中,縱軸表示正確分類概率(probability for correct classification, PCC)。由圖4可見,由于專門構(gòu)造的Multidomain-former具有多域特征提取能力,在低JSR條件下(JSR小于10 dB)對5種干擾信號的平均識別率比僅能提取頻域特征的經(jīng)典Transformer獲得了2%~3%的提升。

        為進(jìn)一步驗(yàn)證Multidomain-former的全局學(xué)習(xí)能力,本文選擇了另外5種基準(zhǔn)網(wǎng)絡(luò)模型SqueezeNet[13、Shuffle-NetV2[14、MobileNetV3[15、EfficientNetV2[16和LSTM[17,使用相同的混合信號數(shù)據(jù)集進(jìn)行干擾識別。各基準(zhǔn)網(wǎng)絡(luò)模型與所提Multidomain-former網(wǎng)絡(luò)模型的參數(shù)量和FLOPS對比如表4所示;5種基準(zhǔn)網(wǎng)絡(luò)模型與Multidomain-former對混合信號的識別情況對比如圖5所示。由表4可知,本文所提Multidomain-former網(wǎng)絡(luò)模型具有最少的參數(shù)量和次低的計(jì)算復(fù)雜度。相較于復(fù)雜度最低的基準(zhǔn)網(wǎng)絡(luò)模型LSTM,所提Multidomain-former模型以稍高的復(fù)雜度換來較大的識別性能提升,如圖5所示。

        由圖5對比可知,在JSR等于-5 dB的條件下,Multidomain-former的識別率相較于SqueezeNet、ShuffleNetV2、MobileNetV3、EfficientNetV2和LSTM分別提高了9.3%、5.7%、4.7%、3.0%和4.0%;另外,Multidomain-former在JSR等于5 dB的條件下PCC可達(dá)100%,而SqueezeNet在JSR等于15 dB時PCC才能達(dá)到100%。可見,Multidomain-former相較于傳統(tǒng)CNN和有全局學(xué)習(xí)能力但不具備多域?qū)W習(xí)能力的LSTM都有較明顯的優(yōu)勢。

        為進(jìn)一步說明Multidomain-former對于多種干擾類型的同時分辨能力,圖6給出了在JSR=0 dB條件下的混淆矩陣。圖6中,1為PBWJ;2為MTJ;3為PBNJ;4為PJ;5為LFMJ。由圖6可知,在干擾信號與SOI功率相當(dāng)時,Multidomain-former對全部干擾類型的識別率可達(dá)100%。

        4 結(jié)束語

        在干擾類型識別領(lǐng)域中,面向干擾信號與SOI混合的實(shí)際場景,基于特征的傳統(tǒng)分類識別方法過于倚重人工選取特征集,且運(yùn)算量大;基于常見網(wǎng)絡(luò)模型(如CNN、LSTM等)的深度學(xué)習(xí)方法因不具備全局信息的學(xué)習(xí)能力,也不滿足混合信號認(rèn)知需求。為解決現(xiàn)有方法存在的問題,本文基于Transformer結(jié)構(gòu)設(shè)計(jì)了一種名為Multidomain-former的新的網(wǎng)絡(luò)模型,用以實(shí)現(xiàn)混合信號多域特征提取和干擾分類。為了驗(yàn)證所提Multidomain-former的有效性,本文利用通用儀器和收發(fā)天線建立了真實(shí)的無線傳輸信道,在不同JSR下采集了混合信號頻譜,從而形成訓(xùn)練集和測試集。最后通過Python代碼設(shè)計(jì)實(shí)現(xiàn),對Multidomain-former、經(jīng)典Transformer以及另外5種深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行了干擾識別對比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,所提Multidomain-former在參數(shù)數(shù)量最少、計(jì)算復(fù)雜度較低的情況下,獲得了最高的正確識別概率。

        針對實(shí)際應(yīng)用,仍有一些關(guān)鍵問題有待深入討論,如進(jìn)行多種干擾與SOI共存情況下的信號分選及多干擾類型識別研究;目前的混合信號建模將n(t)假定為高斯白噪聲,下一步將進(jìn)行在其他噪聲分布下及采用不同信道模型的Multidomain-former性能研究,以驗(yàn)證本文方案和算法的魯棒性等。

        參考文獻(xiàn)

        [1]周紅平, 馬明輝, 吳若無, 等. 基于稀疏表示分類的雷達(dá)欺騙干擾識別方法[J]. 系統(tǒng)工程與電子技術(shù), 2022, 44(9): 2791-2799.

        ZHOU H P, MA M H, WU R W,et al. Deception jamming recog-nition of radar based on sparse representation classification[J]. Systems Engineering and Electronics, 2022, 44(9): 2791-2799.

        [2]MUGHAL M O, KIM S. Signal classification and jamming detection in wide-band radios using Naive Bayes classifier[J]. IEEE Communications Letters, 2018, 22(7): 1398-1401.

        [3]SHI Y X, LU X J, NIU Y T, et al. Efficient jamming identification in wireless communication: using small sample data driven Naive Bayes classifier[J]. IEEE Wireless Communications Letters, 2021, 10(7): 1375-1379.

        [4]ZHANG L, REN J, LI T T. Time-varying jamming modeling and classification[J]. IEEE Trans.on Signal Processing, 2012, 60(7): 3902-3907.

        [5]SHAO G Q, CHEN Y S, WEI Y S. Convolutional neural network-based radar jamming signal classification with sufficient and limited samples[J]. IEEE Access, 2020, 8: 80588-80598.

        [6]HAN H, LI W, FENA Z B, et al. Proceed from known to unknown: jamming pattern recognition under open-set setting[J]. IEEE Wireless Communications Letters, 2022, 11(4): 693-697.

        [7]靳增源, 張曉瀛, 譚思源, 等. 基于集成時頻通道注意力的倒殘差神經(jīng)網(wǎng)絡(luò)干擾識別[J]. 信號處理, 2023, 39(2): 343-355.

        JIN Z Y, ZHANG X Y, TAN S Y, et al. Jamming identification based on inverse residual neural network with integrated time-frequency channel attention[J]. Journal of Signal Processing, 2023, 39(2): 343-355.

        [8]SHAO G G, CHEN Y S, WEI Y S. Deep fusion for radar jamming signal classification based on CNN[J]. IEEE Access, 2020, 8: 117236-117244.

        [9]邵正途, 許登榮, 徐文利, 等. 基于LSTM和殘差網(wǎng)絡(luò)的雷達(dá)有源干擾識別[J]. 系統(tǒng)工程與電子技術(shù), 2023, 45(2): 416-423.

        SHAO Z T, XU D R, XU W L, et al. Radar active jamming recognition based on LSTM and residual network[J].Systems Engineering and Electronics, 2023, 45(2): 416-423.

        [10]王李靜. 航天測控鏈路干擾多維感知及決策研究[D]. 成都: 電子科技大學(xué), 2020.

        WANG L J.Research on multidimensional perception and decision-marking of interference in space TTamp;C links[D]. Chengdu:University of Electronic Science and Technology of China,

        2020.

        [11]VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]∥Proc.of the Advances in Neural Information Processing Systems, 2017.

        [12]DOSOVITSHIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16×16 words: transformers for image recognition at scale[EB/OL]. [2023-05-10]. https:∥arxiv.org/abs/2010.11929.

        [13]IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and lt;0. 5 MB model size[EB/OL]. [2023-05-10]. https:∥arxiv.org/abs/1602.07360.

        [14]MA N, ZHANG X, ZHENG H T, et al. Shufflenet v2: practical guidelines for efficient CNN architecture design[C]∥Proc.of the European conference on computer vision, 2018: 116-131.

        [15]HOWARD A, SANDLER M, CHU G, et al. Searching for MobileNetV3[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 1314-1324.

        [16]TAN M X, LE Q. EfficientNetV2: Smaller models and faster training[C]∥Proc.of the International Conference on Machine Learning, 2021: 10096-10106.

        [17]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

        作者簡介

        陽鵬飛(1999—),男,碩士研究生,主要研究方向?yàn)閺?fù)合調(diào)制信號識別、干擾信號識別、智能抗干擾決策。

        何 羚(1972—),女,副教授,碩士,主要研究方向?yàn)闇y控通信鏈路安全防護(hù)、信號感知與處理。

        王 茜(1984—),女,副教授,博士,主要研究方向?yàn)樾盘枡z測、時頻分析。

        王睿笛(1998—),男,碩士研究生,主要研究方向?yàn)槎嘤蜃赃m應(yīng)抗干擾算法。

        張明志(2000—),男,碩士研究生,主要研究方向?yàn)槎M(jìn)制偏移載波調(diào)制信號仿真與實(shí)現(xiàn)。

        蜜桃视频一区二区三区四| 亚洲日本va中文字幕| 欧美老熟妇欲乱高清视频 | 懂色av一区二区三区尤物| 精品亚洲a∨无码一区二区三区| 四虎影视永久地址www成人| 亚洲综合av在线在线播放| 亚洲国产剧情在线精品视| 日韩av一区在线播放| 久久人妻一区二区三区免费 | 亚洲av永久无码天堂网| 99热这里有精品| 国产免费无码一区二区三区| 亚洲不卡电影| 狠狠综合久久av一区二区三区| 日韩精品第一区二区三区 | 青青草在线公开免费视频| 人妻av中文字幕久久| 国语少妇高潮对白在线| 亚洲无线码一区在线观看| 国产视频激情视频在线观看| 青春草在线视频观看| 久久精品国产亚洲av大全| 日本精品免费一区二区三区| 国内精品熟女一区二区| 亚洲国产成人av二区| 国产xxx69麻豆国语对白| 无码欧亚熟妇人妻AV在线外遇 | av在线免费观看网站免费| 欧美大屁股xxxx| 正在播放淫亚洲| 久久亚洲精品成人av观看| 日韩无码专区| 亚洲午夜福利在线观看| 免费一级肉体全黄毛片| 国内国外日产一区二区| 日本边添边摸边做边爱喷水| 久久综合九色综合欧美狠狠| 国产精品综合久久久久久久免费 | 亚洲综合国产精品一区二区99| 香蕉久久夜色精品国产|