亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進EfficientNet的雷達信號調(diào)制方式識別*

        2023-01-18 02:55:46蘇琮智王美玲楊承志吳宏超
        電訊技術(shù) 2023年1期
        關(guān)鍵詞:時頻信噪比卷積

        蘇琮智,王美玲,楊承志,吳宏超

        (空軍航空大學 航空作戰(zhàn)勤務(wù)學院,長春 130022)

        0 引 言

        近年來,深度學習算法在雷達輻射源信號識別領(lǐng)域獲得了廣泛應(yīng)用,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是最經(jīng)典的模型之一。CNN利用權(quán)值共享、局部感知的思想大大降低了網(wǎng)絡(luò)的復雜度和計算成本,可以高效地處理多維圖像,特別是在二維圖像處理上優(yōu)勢巨大[1]。因此,可以直接將對雷達輻射源信號進行一定的變換后提取到的二維圖像輸入CNN網(wǎng)絡(luò),網(wǎng)絡(luò)將自動提取雷達輻射源信號的深層隱藏特征并進行分類識別。

        當訓練數(shù)據(jù)充足時,利用深度學習進行雷達輻射源識別可以達到較高的正確率并具有較強的魯棒性,相比傳統(tǒng)的算法有較大的提升,但同時也存在不足之處:在低信噪比下網(wǎng)絡(luò)提取深層次特征更加困難,對輻射源的識別準確率還有待提高;許多用于識別的神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)層數(shù)較深、參數(shù)過多,網(wǎng)絡(luò)的時間復雜度和空間復雜度較大,因此訓練速度慢、計算量龐大。

        EfficientNet[2]是用一種新的模型縮放方法構(gòu)建的網(wǎng)絡(luò),相比以前的卷積神經(jīng)網(wǎng)絡(luò)在準確性和效率方面更優(yōu)秀。本文以EfficientNet-B0為基礎(chǔ)框架,通過使用卷積注意力模塊(Convolutional Block Attention Module,CBAM)替換壓縮和激勵(Squeeze and Excitation,SE)模塊改進網(wǎng)絡(luò)中的移動倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv)模塊,增強了網(wǎng)絡(luò)提取多種特征的能力;分析了ReLU和h-Swish相比于Swish激活函數(shù)的優(yōu)勢,在網(wǎng)絡(luò)不同深度使用不同的激活函數(shù)以兼顧網(wǎng)絡(luò)的訓練速度和識別精度,添加了標簽平滑機制并對時頻圖進行CutMix數(shù)據(jù)增強,防止網(wǎng)絡(luò)產(chǎn)生過擬合,能夠?qū)?種不同調(diào)制信號進行有效識別,整體平均識別率達到了99.25%。

        1 雷達輻射源信號處理

        1.1 Choi-Williams分布

        時頻分析方法結(jié)合分析非平穩(wěn)信號的時域和頻域兩個維度,可以直接反映信號在這兩個維度的映射關(guān)系,從而得到信號的相關(guān)調(diào)制信息,能夠更加直觀地分析和處理信號。Choi-Williams分布(Choi-Williams Distribution,CWD)[3]是一種典型的二次型時頻分布,可以有效抑制交叉項,也能保持良好的時頻分辨率。

        本文采用CWD對輻射源信號進行時頻變換獲取時頻圖,其核函數(shù)是指數(shù)核函數(shù),即

        (1)

        式中:v表示頻偏;τ表示時移。由核函數(shù)得到CWD的數(shù)學表達式為

        (2)

        式中:t表示時間變量;ω表示角頻率變量;s(u)表示時間信號;*表示復數(shù)共軛;σ表示衰減系數(shù),通常設(shè)置σ∈[0.1,10],選擇合適的數(shù)值能夠增強時頻性能。

        1.2 CutMix數(shù)據(jù)增強學習

        CutMix[4]是一種數(shù)據(jù)增強策略,具體做法是通過對訓練圖像A進行剪切和粘貼補丁,將一部分區(qū)域剪切但不像Cutout[5]方法填充0像素,而是隨機選擇訓練集中的另一張B圖像,并以B圖像的區(qū)域像素值對A圖剪裁區(qū)域進行填充,其中真實標簽的混合與補丁的面積成正比,即兩個樣本隨機加權(quán)求和,樣本的標簽對應(yīng)加權(quán)求和。

        圖1所示為CutMix方法處理效果。

        (a)處理前

        在對圖像做歸一化處理以后,在訓練集中抽選出的一張調(diào)制方式為P2的CWD時頻圖a,其未經(jīng)過CutMix方法處理,然后隨機選取樣本中另一張圖像截取對應(yīng)的剪裁區(qū)域?qū)圖剪裁區(qū)域進行填充得到b圖,隨機選取的是一張調(diào)制方式為2FSK的圖像,可以明顯看出b圖中的“補丁”,使用該方法時“補丁”面積大小隨機生成。

        該方法對比于其他數(shù)據(jù)增強方法如Cutout和Mixup training[6],Cutmix相當于更換某個零件,模型更容易區(qū)分樣本中的異類,能夠增強網(wǎng)絡(luò)學習局部特征從而增強模型泛化能力,提高訓練效率,并且能夠保持訓練代價不變。

        2 基于EfficientNet的改進

        2.1 基礎(chǔ)網(wǎng)絡(luò)EfficientNetB0網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)通常通過增加深度、寬度和圖像分辨率中的一個來獲得更高的精度,然而這一般也意味這消耗更多資源。EfficientNet提出了一種原則性的復合縮放方法即使用一組固定的縮放系數(shù)來均勻地縮放網(wǎng)絡(luò)的寬度、深度和分辨率來擴大網(wǎng)絡(luò)的規(guī)模,使用一個新的baseline網(wǎng)絡(luò)并擴展獲得EfficientNetB0-B7系列網(wǎng)絡(luò),最簡單的B0網(wǎng)絡(luò)的識別效果在ImageNet數(shù)據(jù)集上也超過了ResNet50、InceptionV2等網(wǎng)絡(luò),在5個常用的傳輸學習數(shù)據(jù)集上達到了最先進的精度,并且網(wǎng)絡(luò)的參數(shù)擁有數(shù)量級的減少。EfficientNet-B0為基線網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        表1 EfficientNet-B0基線網(wǎng)絡(luò)結(jié)構(gòu)

        EfficientNet-B0的網(wǎng)絡(luò)結(jié)構(gòu)分為9個階段,第一個階段為3×3的普通卷積,步長為2,連接批量歸一化(Batch Normalization,BN)層和Swish激活函數(shù);第2~8個階段都是移動倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv),在每個階段該模塊重復的次數(shù)對應(yīng)層數(shù)Li;最后一個階段為1×1卷積、全局平均池化和全連接層可添加Softmax激活函數(shù)進行分類。

        原MBConv模塊是EfficientNet的核心模塊,該模塊來源于MobileNetV2[7]中的移動倒置瓶頸模塊,并添加了壓縮和激勵模塊[8]進行優(yōu)化,激活函數(shù)選擇Swish,其結(jié)構(gòu)如圖2所示。

        圖2 MBConv結(jié)構(gòu)

        2.2 卷積注意力模塊

        SE模塊在應(yīng)用中通過對卷積中的特征圖進行處理,只對卷積中不同的通道進行關(guān)注,相比之下,卷積注意力模塊(Convolutional Block Attention Module,CBAM)[9]依次應(yīng)用了通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spatial Attention Module,SAM),通過給予需要強調(diào)或抑制的信息不同權(quán)重有助于網(wǎng)絡(luò)內(nèi)的信息流動,在卷積中有更好的效果,其中CAM和SAM結(jié)構(gòu)如圖3和圖4所示。CAM模塊生成的通道注意力和輸入的特征圖相乘得到的特征圖將作為SAM模塊的輸入,SAM模塊輸出的空間注意力和該模塊輸入的特征圖做乘操作,從而得到最終的特征圖。

        圖3 CAM結(jié)構(gòu)

        圖4 SAM結(jié)構(gòu)

        2.3 h-Swish激活函數(shù)

        在EfficientNet原始網(wǎng)絡(luò)中,網(wǎng)絡(luò)第1個和第9個卷積模塊以及網(wǎng)絡(luò)2~8模塊對應(yīng)的MBConv結(jié)構(gòu)中使用的都是Swish激活函數(shù)[10]。Swish激活函數(shù)在深度神經(jīng)網(wǎng)絡(luò)中的效果比ReLU激活函數(shù)好,但是計算時間更慢,其函數(shù)的表達式如下:

        f(x)=x·sigmoid(βx)。

        (3)

        公式(3)中的β是可訓練的參數(shù)。Swish激活函數(shù)無上界、有下界、平滑、非單調(diào),可以豐富神經(jīng)網(wǎng)絡(luò)層的表現(xiàn)能力,但該激活函數(shù)計算量比較大,計算和求導時間復雜。

        相比于Swish激活函數(shù),h-Swish激活函數(shù)求導過程更加簡單,在效果影響不大的情況下能夠使計算量大大降低。h-Swish激活函數(shù)其實就是來自h-Sigmoid激活函數(shù),該函數(shù)的表達式如下:

        f(x)=x·ReLU6(x+3)/6。

        (4)

        式中:

        ReLU6=min(ReLU,6)。

        (5)

        在MobileNetV3[11]中,Swish的大多數(shù)好處是在更深的層實現(xiàn)的,因此只在網(wǎng)絡(luò)的后半部分采用了h-Swish激活函數(shù)。

        2.4 改進的EfficientNet網(wǎng)絡(luò)

        首先,對EfficientNet-B0網(wǎng)絡(luò)中的MBConv模塊進行改進,用CBAM模塊將網(wǎng)絡(luò)中的原MBConv模塊中的SE模塊替換,使網(wǎng)絡(luò)同時關(guān)注兩個維度上的特征信息,抑制不重要的特征信息,加強對圖像深層特征的提取得到改進的MBConv模塊。改進后的結(jié)構(gòu)如圖5所示。

        圖5 改進的MBConv結(jié)構(gòu)

        改進的MBConv包含CBAM模塊,CBAM模塊的輸入是深度卷積后得到的特征圖,其中的通道注意力和空間注意力由圖3和圖4所示的CAM、SAM結(jié)構(gòu)輸出得到;分別關(guān)注卷積中的通道和空間信息,輸出的新特征圖經(jīng)過卷積后若形狀不變則添加短連接并使用DropOut正則化,針對原始EfficientNet-B0網(wǎng)絡(luò),替換階段2~8的所有MBConv模塊,保持網(wǎng)絡(luò)的其他結(jié)構(gòu)不變。

        其次,考慮到隨著網(wǎng)絡(luò)的加深,特征圖分辨率減小,為了減弱應(yīng)用非線性函數(shù)的成本,兼顧不同激活函數(shù)對于識別效果和識別速度的影響,而且h-Swish激活函數(shù)計算量小于Swish激活函數(shù),在深層表現(xiàn)明顯,可以彌補只用ReLU產(chǎn)生的精度損失,在網(wǎng)絡(luò)前端選擇采用ReLU,在網(wǎng)絡(luò)后端采用h-Swish,通過在不同位置選擇不同的激活函數(shù)得到多種組合,進行實驗和分析以后選擇綜合效果最好的一組。

        通過改進MBConv模塊和調(diào)整網(wǎng)絡(luò)的激活函數(shù)得到了改進后的EfficientNet網(wǎng)絡(luò)。

        2.5 標簽平滑機制

        標簽平滑[12](Label Smoothing)是一種正則化方法,主要用于分類問題,作用是擾動目標變量,防止網(wǎng)絡(luò)太過于相信真實標簽即網(wǎng)絡(luò)過度自信,可以將正確類的概率值更接近其他類的概率值,能夠改善模型的泛化能力,其公式如下:

        (6)

        (7)

        式中:ce(x)表示x的標準交叉熵損失,例如-lb(p(x));i是正確的類;N是類的數(shù)量。標簽平滑鼓勵網(wǎng)絡(luò)的輸出接近帶權(quán)重比例的正確類,同時讓輸出與不正確的帶權(quán)重比例的錯誤類保持等距。

        2.6 基于改進EfficientNet的信號調(diào)制方式識別流程

        Step1 建立改進后的EfficientNet網(wǎng)絡(luò)。

        Step2 獲取信號時頻圖像并進行預(yù)處理:對雷達信號的仿真數(shù)據(jù)進行CWD變換得到時頻圖像,用雙線性插值法將圖像大小設(shè)置為224×224,對圖像進行歸一化處理,將其像素范圍壓縮至[0,1],處理后時頻圖像的維度將變?yōu)閇224,224,3]。

        Step3 為時頻圖像添加標簽,把標簽轉(zhuǎn)換為one-hot編碼形式。

        Step4 數(shù)據(jù)集制作:將時頻圖像與標簽一起組成數(shù)據(jù)集,將生成的數(shù)據(jù)集按照6∶2∶2的比例分為訓練集、驗證集和測試集。對訓練樣本圖像做CutMix增強處理,對樣本標簽做標簽平滑處理。訓練集用于訓練網(wǎng)絡(luò)、優(yōu)化參數(shù);驗證集在訓練集迭代訓練時驗證模型的泛化能力,以此來調(diào)整訓練選擇的各項參數(shù);測試集用來評估模型最終的泛化能力即模型識別能力。

        Step5 模型訓練:將訓練樣本輸入網(wǎng)絡(luò)進行訓練。

        Step6 信號識別:加載模型參數(shù),輸入測試集的樣本,對信號調(diào)制方式進行識別預(yù)測。

        3 實驗和分析

        3.1 實驗環(huán)境

        本文實驗遠程連接服務(wù)器進行訓練,服務(wù)器的操作系統(tǒng)為Ubuntu20.04.1,GPU的型號為NVIDIA Tesla V100,顯存16 GB。實驗使用python3.6編程語言,選擇深度學習模型框架tensorflow2.0.0-gpu。

        3.2 數(shù)據(jù)集

        本文按照不同調(diào)制信號的信號模型并參考文獻[13]的參數(shù)設(shè)置,使用Matlab生成了雷達輻射源信號的9種不同脈內(nèi)調(diào)制方式(2FSK、4FSK、2PSK、4PSK、LFM、P1、P2、P3、P4)的數(shù)據(jù)集,實驗數(shù)據(jù)集的結(jié)構(gòu)組成如下:

        樣本長度:時域信號為2 048個采樣點;

        信號形式為CWD時頻圖;

        信號維度為[224,224,3];

        信噪比范圍為-10~8 dB,間隔步長2 dB;

        單一信噪比單一調(diào)制類型的樣本個數(shù)為1 024個。

        3.3 網(wǎng)絡(luò)訓練

        針對本文數(shù)據(jù)集,設(shè)置網(wǎng)絡(luò)訓練各項參數(shù),batchsize設(shè)置為32,損失函數(shù)選擇交叉熵損失函數(shù),優(yōu)化器選擇Adam,因網(wǎng)絡(luò)收斂快,總的訓練輪數(shù)設(shè)置為50輪次,驗證頻率設(shè)置為1,每訓練一輪驗證模型一次。初始學習率設(shè)置為1×10-3,并設(shè)置學習率下降機制,若驗證集損失保持3輪不下降則縮小學習率為原來的一半。為節(jié)省時間,防止網(wǎng)絡(luò)過擬合,設(shè)置早停機制,當驗證集的損失在訓練5輪沒有下降時認為網(wǎng)絡(luò)收斂則結(jié)束訓練,保存模型的最優(yōu)參數(shù)。

        3.4 實驗結(jié)果和分析

        實驗1為了探究用CBAM注意力機制改進模型的效果,對比分析采用CBAM改進后的EfficientNet-B0網(wǎng)絡(luò)和原始EfficientNet-B0網(wǎng)絡(luò)的識別效果,輸入數(shù)據(jù)不采用CutMix數(shù)據(jù)增強,樣本標簽都不使用標簽平滑只是將其變換為one-hot編碼,用不同信噪比的所有調(diào)制類型的數(shù)據(jù)進行測試,兩種模型的識別效果如圖6所示。

        圖6 改進前后網(wǎng)絡(luò)性能對比

        由圖6可知,兩個模型在信噪比高于0 dB時識別準確率都能夠達到100%。這是因為信噪比較高時,圖像特征信息強,不同調(diào)制信號的時頻圖差別大,更加容易提取特征進行識別。改進后的EfficientNet-B0網(wǎng)絡(luò)在信噪比-8 dB時識別準確率達到了96.40%,明顯高于原始MBConv模塊組成的網(wǎng)絡(luò),說明本文改進的模型有更好的識別能力。

        激活函數(shù)作為CNN的重要單元,能夠給網(wǎng)絡(luò)帶來非線性的特征,激活函數(shù)的大量使用對模型效果影響較大。實驗2為了選擇適合的激活函數(shù),進行不同組合和實驗,其中的1~9階段如表1所示對應(yīng)改進型EfficientNet-B0的網(wǎng)絡(luò)結(jié)構(gòu),其中的MBConv模塊都添加了CBAM后的改進模塊,根據(jù)激活函數(shù)的特點,固定第一層卷積層使用ReLU,最后一層卷積層使用h-Swish,通過改變2~8階段所有MBConv模塊使用的激活函數(shù),得到8個不同組合,網(wǎng)絡(luò)原始的激活函數(shù)全部都是Swish,組合0就是用沒有改變激活函數(shù)的改進型網(wǎng)絡(luò),激活函數(shù)應(yīng)用于對應(yīng)的整個階段i,在卷積層和BN層以后使用,對8個不同組合所對應(yīng)網(wǎng)絡(luò)進行訓練,然后對測試集進行測試。每個組合使用的激活函數(shù)以及測試結(jié)果可掃描本文OSID碼查看。

        由實驗結(jié)果可知,使用h-Swish激活函數(shù)能夠保持網(wǎng)絡(luò)的識別精度但比Swish計算更快,使用ReLU激活函數(shù)能夠加快網(wǎng)絡(luò)訓練速度,但是一定程度上會帶來精度損失。組合4網(wǎng)絡(luò)在第5階段之后才使用h-Swish激活函數(shù),此時特征圖大小為14×14,應(yīng)用非線性函數(shù)的成本減弱,對比于ReLU提高了網(wǎng)絡(luò)精度。實驗結(jié)果表明,組合4網(wǎng)絡(luò)對比于僅用CBAM改進后的網(wǎng)絡(luò)能夠保持識別精度并且很大程度上加快了網(wǎng)絡(luò)的訓練速度,因此選擇組合4對應(yīng)的網(wǎng)絡(luò)作為本文最終的改進EfficientNet模型。

        模型改進前后的參數(shù)和識別準確率如表2所示。由表2可知,改進后的網(wǎng)絡(luò)參數(shù)增加很少,這是因為引入了CBAM模塊帶了少量的參數(shù)增加。改進后的模型在不斷訓練時能夠同時關(guān)注通道和空間兩個維度上的特征信息,訓練速度比原始MBConv組成的B0網(wǎng)絡(luò)略慢,但是識別效果提升顯著,在-10 dB時,改進后的網(wǎng)絡(luò)識別準確率提高了7.97%;通過改變網(wǎng)絡(luò)的激活函數(shù),與單獨改進網(wǎng)絡(luò)結(jié)構(gòu)相比網(wǎng)絡(luò)訓練速度加快62 ms/step,訓練效率提升了23.7%,在一輪迭代訓練中,可以減少107.1 s時間,并且不會影響識別準確率,證明通過改變激活函數(shù),網(wǎng)絡(luò)得到了有效的改進。

        表2 改進前后模型的對比

        實驗3為了進一步了解標簽平滑機制、CutMix數(shù)據(jù)增強對對模型泛化能力的影響,以測試集的正確率和損失為評價標準進行多次消融實驗,實驗結(jié)果如表3所示。由表3可知,模型在添加了標簽平滑機制和使用CutMix數(shù)據(jù)增強以后,識別準確率都得到了提高,加入了標簽平滑機制以后識別率提升了0.2%,加入了CutMix數(shù)據(jù)增強識別準確率提升了0.54%,同時加入兩種方法識別率提升了0.62%,最終整體的識別率達到了99.25%。

        表3 不同方法對模型識別率的影響

        為進一步分析模型的識別效果,利用訓練保存的最終模型在信噪比-10 dB的測試集進行測試識別,識別率達到了94.24%,其混淆矩陣如圖7所示,可以看出識別錯誤主要發(fā)生在多相碼調(diào)制類型中,特別是P1和P4碼;P1、P2碼信號是對線性調(diào)頻波形的階梯型近似,當信噪比降低時時頻圖像中的階梯型特征會逐漸消失,因此會影響識別效果。

        圖7 -10 dB條件模型識別結(jié)果混淆矩陣

        實驗4為了驗證本文提出的改進EfficientNet網(wǎng)絡(luò)模型性能,選取了在圖像分類識別中常用的網(wǎng)絡(luò)模型AlexNet、InceptionV3、SE-Resnet50、DenseNet121、VGG19進行對比,除InceptionV3網(wǎng)絡(luò)數(shù)據(jù)輸入大小為299×299外,其余網(wǎng)絡(luò)輸入均為224×224。數(shù)據(jù)集預(yù)處理和訓練設(shè)置相同,用混合信噪比的數(shù)據(jù)進行測試,測試結(jié)果如表4所示。

        表4 網(wǎng)絡(luò)對比

        表4中顯示了各個網(wǎng)絡(luò)空間復雜度和模型識別準確率的對比,網(wǎng)絡(luò)的空間復雜度一般指模型的參數(shù)數(shù)量,體現(xiàn)為模型本身的體積,模型參數(shù)越多,訓練該模型時就需要更多的數(shù)據(jù)。本文構(gòu)建的改進EfficientNet網(wǎng)絡(luò)模型空間復雜度很小,模型參數(shù)量相比于其他網(wǎng)絡(luò)呈倍數(shù)減少;VGG19的參數(shù)量達到了改進EfficientNet的31倍之多,所選取的6個網(wǎng)絡(luò)的整體準確率都達到了96%以上。這是由于本文構(gòu)建的數(shù)據(jù)集數(shù)量充足,參數(shù)量大的模型擁有足夠的數(shù)據(jù)進行訓練,并且進行了數(shù)據(jù)增強,識別性能有所提高。相比于SE-Resnet50,改進EfficientNet參數(shù)約為SE-Resnet50的1/4,SE-Resnet50的識別準確率也達到98.47%,是因為在Resnet50的基礎(chǔ)上添加了SE模塊,殘差連接和通道注意力增強了模型的泛化能力??偟膩碚f,本文改進EfficientNet模型參數(shù)更少,識別準確率也更高,能夠更好地識別雷達輻射源信號。

        實驗5對本文提出的方法和其他識別雷達信號的深度學習方法進行了比較,選取了近兩年來的文獻采用的識別方法。文獻[14]構(gòu)建了改進型AlexNet網(wǎng)絡(luò),調(diào)整了卷積核的大小和全連接層的節(jié)點數(shù),網(wǎng)絡(luò)參數(shù)量相比于原始AlexNet網(wǎng)絡(luò)有所減少,但同樣較多達到了3.365×107;文獻[15]構(gòu)建了擴張殘差網(wǎng)絡(luò)DRN,減少了原始殘差網(wǎng)絡(luò)的每一組卷積的通道數(shù),但設(shè)置每層的殘差單元數(shù)只為1,網(wǎng)絡(luò)層數(shù)較少,因此參數(shù)量為1.24×106;文獻[16]構(gòu)建了SE-ResNeXt網(wǎng)絡(luò),在殘差結(jié)構(gòu)中用分組卷積替換分支結(jié)構(gòu),同時添加了SE模塊,并對每層的殘差單元數(shù)進行調(diào)整,參數(shù)量達到了3.951×107。三篇文獻中都使用了CWD時頻分析方法,網(wǎng)絡(luò)最后都使用Softmax分類器輸出。在相同實驗條件下進行訓練,圖8顯示了三篇文獻中的方法和本文方法對9類雷達輻射源信號在不同信噪比條件下的識別準確率。

        如圖8所示,四種方法在信噪比大于-4 dB時識別準確率都到了98%,但是隨著信噪比的降低,文獻[14]和文獻[15]的識別效果降低較多,特別是文獻[15]識別效果最差。因為其模型DNR雖然參數(shù)量較少,但是模型設(shè)計過于簡單,僅包含9個卷積層,特征提取能力低于其他三個模型,總體識別率也最低。本文提出的方法識別效果好于其他三種方法,在信噪比-10 dB時,對9種調(diào)制信號的綜合識別率達到了94.24%,比文獻[14]和文獻[15]的方法分別高出了7.65%和9.59%。文獻[16]提出的方法識別效果略低于本文方法,體現(xiàn)了SE-ResNeXt網(wǎng)絡(luò)在低信噪比條件下同樣可以有效識別雷達信號,但是網(wǎng)絡(luò)參數(shù)多,達到了本文模型參數(shù)的8.9倍??傮w來說,對雷達輻射源信號調(diào)制方式進行識別中,本文提出的方法相比于其他深度學習方法參數(shù)量少,識別效果好,具有一定的優(yōu)越性。

        4 結(jié)束語

        本文針對雷達信號調(diào)制方式的在低信噪比條件下的識別問題,搭建了基于EfficientNet的改進網(wǎng)絡(luò)模型,使用卷積注意力模塊改進模型加強模型對雷達信號時頻圖的通道、空間有用特征的關(guān)注,通過對非線性激活函數(shù)的效果分析優(yōu)化網(wǎng)絡(luò)訓練,采用CWD分布進行時頻分析,對得到的時頻圖做CutMix數(shù)據(jù)增強處理以增強模型對困難樣本的識別能力。經(jīng)實驗證實,本文提出的方法網(wǎng)絡(luò)空間復雜度低,參數(shù)量大大低于經(jīng)典圖像識別網(wǎng)絡(luò),與現(xiàn)有的利用深度學習的方法相比,在低信噪比條件下對信號的多種調(diào)制方式具有更高的識別準確率。在模型的時間復雜度的優(yōu)化方面,還可以繼續(xù)研究。

        猜你喜歡
        時頻信噪比卷積
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        基于深度學習的無人機數(shù)據(jù)鏈信噪比估計算法
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        低信噪比下LFMCW信號調(diào)頻參數(shù)估計
        電子測試(2018年11期)2018-06-26 05:56:02
        基于傅里葉域卷積表示的目標跟蹤算法
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        雷達學報(2017年3期)2018-01-19 02:01:27
        保持信噪比的相位分解反褶積方法研究
        基于時頻分析的逆合成孔徑雷達成像技術(shù)
        對采樣數(shù)據(jù)序列進行時頻分解法的改進
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        久久婷婷国产综合精品| 亚洲精品久久国产高清情趣图文 | 24小时日本在线视频资源| 国产亚洲日韩在线三区| 秋霞日韩一区二区三区在线观看 | 国产在线看不卡一区二区| 亚洲国产综合精品一区| 久久亚洲中文字幕精品二区| 日本一区二区视频免费在线看 | 青春草在线视频免费观看| 午夜亚洲www湿好大| 国产成人亚洲综合无码DVD| 日韩中文字幕网站| 日韩不卡一区二区三区色图| 女同视频一区二区在线观看| 韩国三级在线观看久| 国产成人av大片大片在线播放 | 国产区福利| 国产成人福利在线视频不卡| 国产一区二区在线观看视频免费 | 丁香五月缴情在线| 18禁黄网站禁片免费观看女女| 大学生被内谢粉嫩无套| 亚洲VA中文字幕无码毛片春药| 求网址日韩精品在线你懂的| 精品三级国产一区二区三| 无码视频在线观看| 摸进她的内裤里疯狂揉她动视频 | 国产亚洲日韩欧美久久一区二区 | 国产精品无码一本二本三本色| 国产精品三级一区二区按摩| 日本老年人精品久久中文字幕| 中文字幕在线乱码亚洲| 色综合久久精品亚洲国产| 香蕉成人啪国产精品视频综合网| 一道本中文字幕在线播放| 国产成人自拍视频播放| 久久视频在线| 丰满多毛少妇做爰视频| 精品中文字幕日本久久久| 国产精品一区二区日本|