亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積網(wǎng)絡(luò)和對抗式學(xué)習(xí)的雷達(dá)信號識別算法

        2021-04-26 06:55:00何重航劉佳琪王憲棟劉洪艷
        關(guān)鍵詞:時頻特征向量信噪比

        何重航,劉佳琪,王憲棟,劉洪艷,高 路

        (1.北京航天長征飛行器研究所,北京,100076;2.試驗(yàn)物理與計算數(shù)學(xué)國家重點(diǎn)實(shí)驗(yàn)室,北京,100076; 3.中國人民解放軍61336部隊,北京,100094)

        0 引 言

        雷達(dá)是現(xiàn)代電子戰(zhàn)中的關(guān)鍵作戰(zhàn)裝備,雷達(dá)信號的脈內(nèi)調(diào)制特征分析是電子戰(zhàn)領(lǐng)域一個重要研究內(nèi)容,主要分析方法有時域自相關(guān)法、相位差分法和時頻分析法。其中時頻分析法是描述雷達(dá)信號在時域-頻域二維平面上能量分布,以圖像形式直觀表現(xiàn)不同調(diào)制類型,常用的時頻分析法有短時傅里葉變換、魏格納-威利分布[1]、Choi-Williams分布以及平滑偽魏格納-威利分布[2]等算法。常用的脈內(nèi)調(diào)制識別的工作流程是通過時頻分析法得到信號時頻圖像,再對時頻圖像進(jìn)行特征提取得到特征向量,最后利用對特征向量實(shí)現(xiàn)對信號脈內(nèi)調(diào)制的識別。隨著人工智能、機(jī)器學(xué)習(xí)等技術(shù)的發(fā)展,卷積網(wǎng)絡(luò)等一系列網(wǎng)絡(luò)模型[3~6]在圖像分類、人臉識別和目標(biāo)檢測等領(lǐng)域表現(xiàn)出優(yōu)異的圖像特征提取能力。文獻(xiàn)[7]采用深度自動編碼器結(jié)構(gòu),文獻(xiàn)[8]采用卷積網(wǎng)絡(luò)模型,兩者都實(shí)現(xiàn)了脈內(nèi)調(diào)制特征的識別,但是模型性能易受噪聲影響;為解決信號低信噪比的問題,文獻(xiàn)[9]采用更深層次的網(wǎng)絡(luò)模型,文獻(xiàn)[10]則采用多路通道的深度卷積神經(jīng)網(wǎng)絡(luò),兩者對低信噪比信號均具有較好的識別能力;文獻(xiàn)[11]和文獻(xiàn)[12]均采用多種圖像特征融合的方法提高信號識別準(zhǔn)確率;文獻(xiàn)[13]則提出集成學(xué)習(xí)的方式,集成多種卷積網(wǎng)絡(luò)提取的調(diào)制特征,文獻(xiàn)[14]則將多個模型知識進(jìn)行遷移,2種算法對低信噪比樣本仍保持高準(zhǔn)確率。

        上述時頻圖像加網(wǎng)絡(luò)模型的方法,在訓(xùn)練數(shù)據(jù)豐富情況下,具有良好的雷達(dá)信號識別性能,但現(xiàn)代戰(zhàn)爭對于電磁頻譜資源管控嚴(yán)格,網(wǎng)絡(luò)模型學(xué)習(xí)樣本有限,且時刻面臨新出現(xiàn)的信號樣本,需通過學(xué)習(xí)新樣本保持和提升識別性能[14~16]。針對新樣本再學(xué)習(xí)的問題,本文提出一種基于卷積網(wǎng)絡(luò)和對抗式學(xué)習(xí)的雷達(dá)信號識別算法,網(wǎng)絡(luò)對新樣本進(jìn)行對抗式學(xué)習(xí),在學(xué)習(xí)訓(xùn)練過程中網(wǎng)絡(luò)各層參數(shù)自適應(yīng)調(diào)整,從而實(shí)現(xiàn)對卷積網(wǎng)絡(luò)的微調(diào)和更新,提升模型對新樣本的識別率。

        1 系統(tǒng)模型架構(gòu)

        1.1 信號模型

        雷達(dá)脈沖信號可看作是信號和噪聲兩部分組成,其數(shù)學(xué)表達(dá)式為

        式中s(t)為雷達(dá)脈沖信號;n(t)為高斯白噪聲;E0為信號幅度;fc為信號的載頻;φ(t)為信號的瞬時相位變化;φ0為信號初始相位。雷達(dá)脈沖信號的脈內(nèi)特征包括無意調(diào)制特征和有意調(diào)制特征,本文主要考慮脈沖有意調(diào)制特征的相位調(diào)制和頻率調(diào)制特征。本文主要討論以下 9種雷達(dá)信號脈內(nèi)調(diào)制方式的識別:線性調(diào)頻信號(Linear Frequency Modulation,LFM)、非線性調(diào)頻信號(Nonlinear Frequency Modulation,NLFM)、科斯塔斯調(diào)頻編碼信號(Costas)、巴克碼信號(Barker)、弗蘭克編碼信號(Frank)和4種多相編碼信號(P1、P2、P3、P4)。

        1.2 系統(tǒng)架構(gòu)

        系統(tǒng)工作流程主要分為 3步:模型預(yù)學(xué)習(xí)、模型再學(xué)習(xí)、模型應(yīng)用。工作流程如圖1所示。

        第1階段為模型預(yù)學(xué)習(xí)。結(jié)合新的深度可分離卷積方式,設(shè)計構(gòu)造卷積神經(jīng)網(wǎng)絡(luò),采用舊樣本訓(xùn)練網(wǎng)絡(luò)模型,將提取的信號時頻圖像特征,通過分類器初步實(shí)現(xiàn)對 9種雷達(dá)信號樣本的識別,并保存卷積網(wǎng)絡(luò)模型結(jié)構(gòu)以及各層隱含參數(shù)。

        第2階段是模型再學(xué)習(xí)。采用對抗式學(xué)習(xí)的訓(xùn)練方式,將同樣結(jié)構(gòu)的卷積網(wǎng)絡(luò)模型作為生成器,將舊樣本數(shù)據(jù)標(biāo)記為正標(biāo)簽,新樣本數(shù)據(jù)標(biāo)記為負(fù)標(biāo)簽,輸入卷積網(wǎng)絡(luò)模型和判別器,訓(xùn)練判別器;判別器訓(xùn)練完成后固定判別器參數(shù),將新樣本標(biāo)注為正標(biāo)簽,訓(xùn)練卷積網(wǎng)絡(luò)模型的隱含參數(shù),使提取的新、舊樣本特征向量相似,完成對生成器的訓(xùn)練。

        第3階段是模型應(yīng)用。將新樣本測試數(shù)據(jù)輸入?yún)?shù)更新調(diào)整后的卷積網(wǎng)絡(luò)模型(生成器),實(shí)現(xiàn)對新樣本信號的識別。

        圖1 算法流程示意 Fig.1 The Structure of Algorithm

        2 雷達(dá)信號時頻變換

        雷達(dá)信號數(shù)據(jù)通常是由采樣得到的復(fù)數(shù)序列,包含豐富的時頻域信息。通過時頻變換的分析方法,將雷達(dá)脈沖信號的調(diào)制特征有效提取出來,變換形成信號時頻圖像。本文采用平滑偽魏格納-威利分布的變換方式,能夠較好抑制噪聲導(dǎo)致的交叉項(xiàng)影響,平滑偽魏格納-威利分布變換的表達(dá)式為

        時頻分布方法能夠較好描述不同調(diào)制信號的能量在時間-頻率坐標(biāo)軸上的二維分布,將變換后圖像進(jìn)行灰度化作為網(wǎng)絡(luò)模型輸入,如圖2所示。

        圖2 雷達(dá)脈沖信號時頻分布 Fig.2 Time-frequency Transformation of Radar Pulse Signal

        3 深度卷積神經(jīng)網(wǎng)絡(luò)

        卷積網(wǎng)絡(luò)最核心的是卷積層,由卷積運(yùn)算代替?zhèn)鹘y(tǒng)矩陣乘法運(yùn)算,提取輸入圖像特征。深度卷積網(wǎng)絡(luò)模型層數(shù)越多、規(guī)模越大,提取特征的能力就越強(qiáng),需要的內(nèi)存資源也就越多,訓(xùn)練難度也更大,為了權(quán)衡網(wǎng)絡(luò)模型特征提取能力和模型規(guī)模,借鑒具有代表性的 MobileNet網(wǎng)絡(luò)的深度可分離卷積單元(Depthwise Separable Convolution),構(gòu)造深度卷積網(wǎng)絡(luò)模型。深度可分離卷積單元是卷積操作拆分為深度卷積(Depthwise Convolution)和逐點(diǎn)卷積(Pointwise Convolution)。深度可分離卷積操作是對每一個通道采用不同的卷積核進(jìn)行卷積,再采用逐點(diǎn)卷積將多個通道輸出進(jìn)行拼接。深度可分離卷積單元的基本結(jié)構(gòu)如圖3所示。

        圖3 深度可分離卷積 Fig.3 The Depthwise Separable Convolution

        標(biāo)準(zhǔn)卷積操作中卷積核尺寸為K×K,M為輸入通道數(shù),N為卷積核個數(shù);深度可分離卷積中,深度卷積的卷積核尺寸是K×K,通道數(shù)為M,卷積核個數(shù)為1;而逐點(diǎn)卷積中卷積核的尺寸為1×1,通道數(shù)為M,卷積核個數(shù)為N。最終卷積的整體效果與標(biāo)準(zhǔn)卷積沒有差異,但是極大的減少了計算量和模型的參數(shù)量。

        卷積網(wǎng)絡(luò)模型參數(shù)如表1所示。當(dāng)模型中深度卷積的步幅為2時,可實(shí)現(xiàn)對輸入特征圖的降采樣,最終通過平均池化操作將特征圖尺寸變?yōu)?×1,由全連接層(fc1)輸出特征向量,最終特征向量經(jīng)過激活函數(shù)(Softmax)層,實(shí)現(xiàn)對9種雷達(dá)信號的分類。

        表1 卷積網(wǎng)絡(luò)模型參數(shù) Tab.1 The Parameters of CNN Model

        4 模型再學(xué)習(xí)

        生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)主要包括生成器G(Generator)和判別器D(Discriminator),通過生成器與判別器的對抗式訓(xùn)練,使得生成器產(chǎn)生的生成樣本盡可能與真實(shí)樣本相似。本文,將舊樣本經(jīng)過卷積網(wǎng)絡(luò)全連接層輸出的特征向量看作真實(shí)樣本,標(biāo)注為正標(biāo)簽;將新樣本經(jīng)過卷積網(wǎng)絡(luò)輸出的特征向量看作生成樣本,標(biāo)注為負(fù)標(biāo)簽,輸入為新樣本的卷積網(wǎng)絡(luò)則看作是生成器,判別器則是采用三層全連接層構(gòu)成,判別器的結(jié)構(gòu)如表2所示。

        表2 判別器結(jié)構(gòu)和參數(shù) Tab.2 The Structure and Parameters of Discriminator

        在訓(xùn)練過程中,需要判別器能夠準(zhǔn)確分出新、舊樣本的特征向量,所以判別器D的損失函數(shù)為

        式中x為舊樣本信號的時頻圖像;z為新樣本的圖像;C表示已訓(xùn)練卷積網(wǎng)絡(luò)模型;G表示再學(xué)習(xí)的網(wǎng)絡(luò)模型(生成器);D(C(x))為判別器對舊樣本特征向量的分類;D(G(z))為判別器對新樣本的特征向量的分類。判別器可準(zhǔn)確分辨2種特征向量,則D(C(x))接近1,判斷舊樣本特征向量為正類;D(G(z))接近 0,1-D(G(z))接近 1,判斷新樣本特征向量為負(fù)類。D(C(x))和 1 -D(G(z))分別取對數(shù)并相加作為判別器損失函數(shù),最大化損失函數(shù)使判別器具有分辨能力。

        生成器的損失函數(shù)如式(5)所示,生成器的目的是使判別器將由生成器得到的特征向量誤判為正標(biāo)簽,判別器輸出D(G(z))接近1,1 -D(G(z))接近0,最小化生成器損失函數(shù)使生成樣本與真實(shí)樣本差異最小。

        綜合式(4)、式(5),生成對抗訓(xùn)練總損失函數(shù):

        4.1 判別器訓(xùn)練

        通過模型預(yù)學(xué)習(xí)得到具有識別能力的網(wǎng)絡(luò),將網(wǎng)絡(luò)模型所有參數(shù)固定不變,最后由全連接層(fc1)輸出特征向量。通過網(wǎng)絡(luò)模型分別提取舊樣本特征向量標(biāo)注為正標(biāo)簽,提取新樣本特征向量標(biāo)注為負(fù)標(biāo)簽,將正負(fù)樣本輸入判別器進(jìn)行訓(xùn)練,訓(xùn)練過程如圖4所示。在訓(xùn)練過程中采用反向傳播算法將梯度傳遞到判別器各層,更新判別器的各層隱含參數(shù),提高判別器新、舊樣本的判別能力。

        圖4 判別器訓(xùn)練示意 Fig.4 The Training Procedure of Discriminator

        4.2 生成器訓(xùn)練

        生成器訓(xùn)練見圖5,將新樣本的特征向量均標(biāo)注為正標(biāo)簽。通過反向傳播算法將誤差梯度傳遞到生成器中,更新生成器各層隱含參數(shù)。生成器和預(yù)訓(xùn)練模型結(jié)構(gòu)完全相同,在生成對抗訓(xùn)練過程中,判別器和生成器進(jìn)行交替訓(xùn)練更新,最終完成對生成器各層參數(shù)的更新,判別器分辨生成器輸出特征向量的正負(fù)。

        圖5 生成器器訓(xùn)練示意 Fig.5 The Training Procedure of Generator

        5 仿真試驗(yàn)分析

        5.1 樣本設(shè)置

        9種不同調(diào)制方式的雷達(dá)脈沖樣本數(shù)據(jù)具有相同的采樣頻率fs=256 MHz和相同的采樣點(diǎn)數(shù)Ns=512,脈沖寬度τ=2 μs,脈沖信號調(diào)制參數(shù)設(shè)置情況見表3。

        表3 脈沖信號樣本參數(shù) Tab.3 The Parameters of Pulse Signal Sample

        每種調(diào)制類型 1000樣本,信噪比分別設(shè)置為-4 dB、-2 dB、0 dB、2 dB、4 dB,每種信噪比下樣本總數(shù)為9000,其中60%樣本作為訓(xùn)練集,10%作為驗(yàn)證集,30%作為測試集。

        5.2 仿真分析

        a)模型預(yù)學(xué)習(xí)。

        選擇信噪比為0 dB樣本集作為預(yù)訓(xùn)練數(shù)據(jù)集,輸入模型的每一批樣本數(shù)量為 12,迭代步數(shù)為 200;選擇基于Adam算法的優(yōu)化器,學(xué)習(xí)率設(shè)置為0.0001。模型訓(xùn)練過程如圖6所示。

        圖6 卷積網(wǎng)絡(luò)訓(xùn)練過程 Fig.6 The Training Procedure of CNN

        訓(xùn)練后,模型對0 dB樣本的測試集數(shù)據(jù)識別準(zhǔn)確率為94.96%,測試樣本的混淆矩陣如圖7所示。

        圖7 0dB信噪比樣本混淆矩陣 Fig.7 The Confusion Matrix of Samples at 0dB SNR

        根據(jù)圖7的混淆矩陣分析,在信噪比為0 dB條件下,模型整體具有較高的準(zhǔn)確率,基本完成對LFM和NLFM信號的正確分類。因?yàn)镕rank信號、Barker信號, P1、P2、P3和P4多相編碼信號均為相位編碼調(diào)制方式,所以信號時頻圖像較為相似,存在較多的誤分類情況。

        b)模型再學(xué)習(xí)。

        將模型預(yù)學(xué)習(xí)中 0 dB信噪比樣本作為舊樣本數(shù)據(jù),選擇信噪比-4 dB、-2 dB、2 dB、4 dB 樣本集作為新樣本對抗式訓(xùn)練,訓(xùn)練中每一批輸入樣本數(shù)量為15,迭代步數(shù)為50,判別器和生成器優(yōu)化均采用Adam算法優(yōu)化器進(jìn)行優(yōu)化。訓(xùn)練前后模型的識別率見表4和圖8。

        表4 不同信噪比樣本識別率 Tab.4 The Recognition Rate of Samples at Different SNR

        圖8 不同信噪比樣本識別率 Fig.8 The Recognition Rate of Samples at Different SNR

        根據(jù)表4和圖8分析,對于信噪比為-4 dB和-2 dB的新樣本,經(jīng)過對抗式訓(xùn)練后,更新了網(wǎng)絡(luò)模型參數(shù),識別準(zhǔn)確率得到明顯提高。進(jìn)一步分析低信噪比條件下模型參數(shù)更新前后模型性能的變化,將對抗式訓(xùn)練前、后-4dB樣本測試集的混淆矩陣進(jìn)行對比(見圖9)。

        圖9 -4dB信噪比樣本混淆矩陣 Fig.9 The Confusion Matrix of Samples at -4dB SNR

        續(xù)圖9

        根據(jù)圖9的混淆矩陣,-4 dB信噪比樣本由于噪聲影響,預(yù)訓(xùn)練的模型難以有效提取時頻圖像特征,對新樣本存在較多的誤分類。模型經(jīng)過對抗式再學(xué)習(xí)后,對新樣本整體準(zhǔn)確率得到提高,試驗(yàn)結(jié)果表明經(jīng)過對抗式學(xué)習(xí)后網(wǎng)絡(luò)對低信噪比信號識別能力得到提升。

        6 結(jié)束語

        本文提出了一種基于卷積網(wǎng)絡(luò)和對抗式學(xué)習(xí)的雷達(dá)信號識別算法,以對抗方式自適應(yīng)調(diào)整、更新卷積網(wǎng)絡(luò)模型參數(shù),提高了網(wǎng)絡(luò)模型對新增信號數(shù)據(jù)的學(xué)習(xí)能力,對-4 dB信噪比新樣本的準(zhǔn)確率提高了10.89%。為電子對抗、雷達(dá)對抗提供了堅實(shí)的技術(shù)支撐,也可以推廣應(yīng)用到通信信號等其他類型信號的識別領(lǐng)域。

        猜你喜歡
        時頻特征向量信噪比
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
        克羅內(nèi)克積的特征向量
        基于深度學(xué)習(xí)的無人機(jī)數(shù)據(jù)鏈信噪比估計算法
        低信噪比下LFMCW信號調(diào)頻參數(shù)估計
        電子測試(2018年11期)2018-06-26 05:56:02
        一類特殊矩陣特征向量的求法
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        EXCEL表格計算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
        保持信噪比的相位分解反褶積方法研究
        基于時頻分析的逆合成孔徑雷達(dá)成像技術(shù)
        對采樣數(shù)據(jù)序列進(jìn)行時頻分解法的改進(jìn)
        久久99人妖视频国产| 精品无码成人片一区二区 | 97夜夜澡人人双人人人喊| 国产伦久视频免费观看视频| 国产精品黄在线观看免费软件| 亚洲精品国偷拍自产在线观看蜜臀| 波多野结衣有码| 九九99国产精品视频| 国产亚洲精选美女久久久久| 精品一区二区三区女同免费| 国产一区二区熟女精品免费| 精品粉嫩av一区二区三区| 女人18片毛片60分钟| 免费人成激情视频在线观看冫| 国产成人无码a区在线观看视频| 3344永久在线观看视频| www.av在线.com| 亚洲国产一区二区精品| 男女性行为免费视频网站| 亚洲美女av一区二区在线| 日韩午夜福利无码专区a| 人妻丰满熟妇av无码区不卡| 精品无码专区久久久水蜜桃| 亚洲国产麻豆综合一区| 久久精品国产亚洲AV高清y w| 少妇人妻在线伊人春色| 日韩精品乱码中文字幕| 亚洲爆乳无码精品aaa片蜜桃| 成人毛片av免费| 激情 人妻 制服 丝袜| 综合色久七七综合尤物| 色妞一区二区三区免费视频| 成人免费播放视频777777| 一本色道久久88精品综合| 国产肉丝袜在线观看| 国产在线无码免费视频2021| 在线视频免费自拍亚洲| 白浆国产精品一区二区| 国产又粗又猛又黄又爽无遮挡| 91麻豆国产香蕉久久精品| 亚洲中文字幕国产综合|