亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DropBlock 雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)的無(wú)線通信調(diào)制識(shí)別

        2022-07-12 10:42:48高巖石堅(jiān)馬圣雨馬柏林樂(lè)光學(xué)
        電信科學(xué) 2022年5期
        關(guān)鍵詞:正則信噪比準(zhǔn)確率

        高巖,石堅(jiān),,馬圣雨,,馬柏林,樂(lè)光學(xué)

        (1. 河南理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河南 焦作 454003;2. 嘉興學(xué)院信息科學(xué)與工程學(xué)院,浙江 嘉興 314000;3. 嘉興學(xué)院數(shù)據(jù)科學(xué)學(xué)院,浙江 嘉興 314000)

        0 引言

        現(xiàn)代無(wú)線通信中的自動(dòng)調(diào)制識(shí)別已被廣泛應(yīng)用于商業(yè)和軍事領(lǐng)域[1-4],調(diào)制識(shí)別算法通常分為似然估計(jì)、特征估計(jì)和深度學(xué)習(xí)。基于似然估計(jì)的識(shí)別算法利用似然函數(shù)進(jìn)行決策實(shí)現(xiàn)信號(hào)的分類(lèi)[5-6];基于特征估計(jì)的識(shí)別方法[7-8]將調(diào)制特性與理論特征進(jìn)行比較。這兩種方法存在需要先驗(yàn)概率信息、對(duì)信噪比要求高[9]、識(shí)別類(lèi)型少以及魯棒性差等缺點(diǎn)。隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)為無(wú)線通信信號(hào)調(diào)制識(shí)別提供了一種有效途徑[10],深度神經(jīng)網(wǎng)絡(luò)通常在過(guò)度參數(shù)化、訓(xùn)練大量噪聲和正則化時(shí)表現(xiàn)良好,成為該領(lǐng)域的研究熱點(diǎn)。文獻(xiàn)[11]研究卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于調(diào)制識(shí)別領(lǐng)域,其調(diào)制識(shí)別類(lèi)型達(dá)到11 種,實(shí)現(xiàn)低信噪比的高精度識(shí)別。文獻(xiàn)[12]基于ResNet 模型對(duì)24 種調(diào)制信號(hào)進(jìn)行識(shí)別,精度有大幅提高。文獻(xiàn)[13]提出了一種結(jié)構(gòu)化DropBlock,通過(guò)全連接層正則化和卷積層中激活單元在空間上相關(guān)性,抑制卷積層特征信息丟失問(wèn)題,實(shí)現(xiàn)對(duì)未被丟棄的特征圖歸一化和卷積層的正則化。

        為解決無(wú)線通信調(diào)制識(shí)別精度低的問(wèn)題,提出了一種改進(jìn)的雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)(bimodal hybrid neural network,BHNN)模型,該模型由殘差網(wǎng)絡(luò)(residual network,ResNet)和雙向門(mén)控循環(huán)單元神經(jīng)網(wǎng)絡(luò)(bidirectional gated recurrent unit,BiGRU)構(gòu)成。ResNet 因?yàn)榫W(wǎng)絡(luò)層數(shù)多,模型復(fù)雜度高,訓(xùn)練時(shí)往往容易出現(xiàn)梯度消失與梯度爆炸等問(wèn)題,因此本文在BHNN 架構(gòu)中引入DropBlock 正則化,希望通過(guò)正則化提高網(wǎng)絡(luò)的泛化能力,并允許對(duì)采集的信號(hào)進(jìn)行輕微的干擾。

        通過(guò)在公開(kāi)數(shù)據(jù)集RadioML2016.10a[14]和RadioML2016.10b[11]上的仿真實(shí)驗(yàn),驗(yàn)證了所提出的基于DropBlock 正則化的BHNN 模型的自動(dòng)調(diào)制識(shí)別方法。

        1 模型設(shè)計(jì)

        1.1 網(wǎng)絡(luò)模型結(jié)構(gòu)

        1.1.1 ResNet 模型

        BHNN 模型中第一個(gè)分支為ResNet。殘差網(wǎng)絡(luò)可以構(gòu)建更深層次的網(wǎng)絡(luò),解決深度網(wǎng)絡(luò)中精度下降的問(wèn)題,其中大量使用跳躍連接概念,允許特征在網(wǎng)絡(luò)的多個(gè)尺度和深度運(yùn)行。殘差單元(Residual unit)與殘差塊(Residual stack)結(jié)構(gòu)如圖1 所示。

        本文使用殘差塊提取特征,每個(gè)殘差塊包含一個(gè)卷積層、兩個(gè)殘差單元和一個(gè)最大池化層。殘差單元中使用濾波器大小為5 的一維卷積,ReLU 作為激活函數(shù),并采用填充操作使得輸入卷積層的張量大小與卷積后大小相同。每個(gè)卷積層后添加DropBlock 正則化層以防止過(guò)擬合,再將殘差單元的輸入與最后一個(gè)DropBlock 層的輸出相加形成跳躍連接。ResNet 的模型結(jié)構(gòu)見(jiàn)表1。

        表1 ResNet 的模型結(jié)構(gòu)

        1.1.2 BiGRU 模型

        為使每個(gè)循環(huán)單元可以自適應(yīng)地捕捉不同時(shí)間尺度的依賴(lài)性,文獻(xiàn)[15]提出了由復(fù)位門(mén)和更新門(mén)組成的GRU 模型,與長(zhǎng)短期記憶(long short-term memory,LSTM)循環(huán)神經(jīng)網(wǎng)絡(luò)相比,結(jié)構(gòu)簡(jiǎn)單,計(jì)算量少,更容易收斂。其中,更新門(mén)控制前一時(shí)刻隱藏層對(duì)當(dāng)前隱藏層的影響程度,更新門(mén)值的大小正比影響當(dāng)前隱藏狀態(tài);復(fù)位門(mén)控制先前隱藏層信息被忽略程度,復(fù)位門(mén)值越小,忽略的越多。GRU[15]模型的更新方式如下:

        其中,r j和zj分別表示j時(shí)刻的復(fù)位門(mén)和更新門(mén),σ(?)表示sigmoid 函數(shù),[?]j代表向量的第j個(gè)元素,x是輸入,Wr和Ur為權(quán)重矩陣。hj和h~j分別代表j時(shí)刻的激活狀態(tài)與候選激活狀態(tài)。

        隱藏單元通過(guò)單獨(dú)的復(fù)位門(mén)和更新門(mén)學(xué)習(xí)捕獲不同時(shí)間尺度上的依賴(lài)關(guān)系,學(xué)習(xí)捕捉長(zhǎng)期與短期依賴(lài)關(guān)系的單元分別具有經(jīng)常處于活動(dòng)狀態(tài)的更新門(mén)與復(fù)位門(mén)。

        BHNN 中的另一個(gè)分支為BiGRU 模型,BiGRU 模型網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。BiGRU 利用了兩個(gè)方向的信息流,其基本單元由一個(gè)前向傳播的GRU 單元與一個(gè)反向傳播的GRU 單元組成,n個(gè)成對(duì)的GRU 單元構(gòu)成BiGRU 模型。任一時(shí)刻的輸出會(huì)同時(shí)提供兩個(gè)方向相反的GRU單元,這兩個(gè)單元共同決定了輸出,這種設(shè)計(jì)有利于提取深層特征。BiGRU 模型結(jié)構(gòu)見(jiàn)表2。

        圖2 BiGRU 模型網(wǎng)絡(luò)結(jié)構(gòu)[15]

        表2 BiGRU 模型結(jié)構(gòu)[15]

        1.1.3 雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)

        采用多模態(tài)融合的方式關(guān)聯(lián)數(shù)據(jù)特征,其特征表示比單一模態(tài)表示更具鑒別性,且有助于提高模型的魯棒性,使模型在某些模態(tài)缺失時(shí)仍能有效工作,已成為調(diào)制識(shí)別的有效方法之一。文獻(xiàn)[16]使用信號(hào)的3 種模態(tài),分別輸入ResNet 模型中,使得不同模態(tài)數(shù)據(jù)包含的豐富信息可以相互補(bǔ)充[16],但是ResNet 忽略了信息在序列中的傳遞,會(huì)導(dǎo)致較早時(shí)間步長(zhǎng)信息的丟失。為解決這一問(wèn)題,將同相和正交(in-phase and quadrature,IQ)分量與信號(hào)的極坐標(biāo)形式兩種模態(tài)并行輸入所構(gòu)建的BHNN 模型,通過(guò)ResNet 與BiGRU 分別提取信號(hào)的空間特征和時(shí)序特征,使得較早時(shí)間步長(zhǎng)的信息傳遞下去。BHNN 模型總體框架如圖3 所示。

        圖3 BHNN 模型總體框架

        ResNet 模型可以避免梯度消失和梯度爆炸,BiGRU 模型能夠減少過(guò)擬合的發(fā)生。文獻(xiàn)[17]中提出,在循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中使用極坐標(biāo)形式表示的輸入數(shù)據(jù)可以為QAM 調(diào)制類(lèi)型帶來(lái)更優(yōu)異的分類(lèi)性能,因此BiGRU 以極坐標(biāo)形式接收輸入樣本,而非ResNet 結(jié)構(gòu)所使用的矩形形式。

        文獻(xiàn)[18]對(duì)IQ 數(shù)據(jù)表示為:

        其中,A表示幅值,φ表示相位。極坐標(biāo)形式[18]通過(guò)計(jì)算輸入IQ 采樣在每個(gè)時(shí)間步長(zhǎng)的幅值和相位獲得,表示為:

        數(shù)據(jù)輸入ResNet 與BiGRU 模型提取特征后,通過(guò)Flatten 操作分別將空間特征和時(shí)序特征轉(zhuǎn)換為一維特征,Concatenate 操作將一維特征拼接融合。最后以全連接層作為網(wǎng)絡(luò)的結(jié)束,全連接層的結(jié)果輸入Softmax 分類(lèi)器中,將提取的特征分類(lèi)。選用Adam 優(yōu)化算法使網(wǎng)絡(luò)更易于訓(xùn)練,初始學(xué)習(xí)率設(shè)置為0.001,使用交叉熵函數(shù)計(jì)算網(wǎng)絡(luò)訓(xùn)練的損失,并采用Early Stopping 策略,當(dāng)驗(yàn)證損失在15 個(gè)epoch 內(nèi)沒(méi)有改善時(shí),停止訓(xùn)練并保存模型。BHNN 模型隱藏層詳細(xì)參數(shù)見(jiàn)表3。

        表3 BHNN 模型隱藏層詳細(xì)參數(shù)

        1.2 DropBlock 正則化

        基于文獻(xiàn)[13]提出的DropBlock 正則化方法,為使其適應(yīng)無(wú)線信號(hào)分類(lèi)任務(wù),將特征圖的分塊調(diào)整為矩形,改善卷積層正則化效果不理想的問(wèn)題。DropBlock 從圖層的特征映射中刪除連續(xù)的區(qū)域,主要參數(shù)為block_size 和keep_prob,其中block_size 控制刪除塊的大小,keep_prob 控制刪除的激活單元數(shù)量。

        DropBlock 算法中不考慮特征映射的分辨率,為所有特征映射設(shè)置了一個(gè)常量block_size。當(dāng)block_size=1 時(shí),DropBlock 與Dropout[19]相似;當(dāng)block_size 覆蓋整個(gè)特征圖時(shí),DropBlock 與SpatialDropout[20]相似。

        keep_prob 的設(shè)置隨著參數(shù)改變。DropBlock掩碼中每個(gè)零條目均由block_size2展開(kāi),塊完全包含在特征映射中,無(wú)法使用平均值為1-keep_prob 的伯努利分布對(duì)二進(jìn)制掩碼采樣,需相應(yīng)地調(diào)整keep_prob。

        文獻(xiàn)[13]關(guān)于keep_prob 的計(jì)算式為:

        其中,(feat_size-block_size+1)2為有效種子區(qū)域的大小,feat_size 代表特征圖的大小,feat_size =w_size×h_size,w_size 為特征圖的長(zhǎng),h_size 為特征圖的寬。DropBlock 的主要誤差在于丟棄的塊中會(huì)有一些重疊,因此式(7)只是一個(gè)近似值。

        2 實(shí)驗(yàn)與性能分析

        2.1 數(shù)據(jù)集與實(shí)驗(yàn)環(huán)境

        為驗(yàn)證BHNN 結(jié)構(gòu)的有效性,實(shí)驗(yàn)分別采用文獻(xiàn)[14]與文獻(xiàn)[11]中的公開(kāi)數(shù)據(jù)集 RadioML 2016.10a 和RadioML2016.10b 測(cè)試。

        RadioML2016.10a 數(shù)據(jù)集有22 萬(wàn)個(gè)樣本、11 種調(diào)制方式,其中包括8 種數(shù)字調(diào)制方式和3 種模擬調(diào)制方式。每種調(diào)制類(lèi)型包括20 種不同的信噪比,范圍從-20 dB 到18 dB 步長(zhǎng)為2 dB。3 種模擬調(diào)制包括AM-DSB、AM-SSB 和WBFM,8 種數(shù)字調(diào)制方式包括GFSK、CPFSK、PAM4、BPSK、QPSK、8PSK、16QAM 和64QAM。RadioML2016.10a 數(shù)據(jù)集詳細(xì)參數(shù)見(jiàn)表4。為模擬真實(shí)的信道環(huán)境,數(shù)據(jù)集中添加了由采樣率偏移、中心頻率偏移、選擇性衰落和加性高斯白噪聲組成的信道模塊[21]。數(shù)據(jù)集中的每個(gè)樣本由128 個(gè)采樣點(diǎn)組成,2×128 個(gè)向量輸入模型,其中實(shí)部和虛部分別代表I 信號(hào)和Q 信號(hào)。數(shù)據(jù)集的標(biāo)簽由信噪比和調(diào)制類(lèi)型組成。

        表4 RadioML2016.10a 數(shù)據(jù)集詳細(xì)參數(shù)

        與RadioML2016.10a 相比,RadioML2016.10b缺少模擬調(diào)制方法中的AM-SSB,并且數(shù)據(jù)量有所擴(kuò)充,數(shù)據(jù)樣本量為120 萬(wàn)。RadioML2016.10b數(shù)據(jù)集詳細(xì)參數(shù)見(jiàn)表5。

        表5 RadioML2016.10b 數(shù)據(jù)集詳細(xì)參數(shù)

        實(shí)驗(yàn)硬件配備Intel Xeon Gold 6230 CPU、NVIDIA Quadro RTX 8000 顯卡,所有網(wǎng)絡(luò)模型均在單一GPU 環(huán)境中訓(xùn)練。使用Keras 和Tensorflow作為后端,Python3.8 進(jìn)行編譯。在數(shù)據(jù)預(yù)處理部分,對(duì)數(shù)據(jù)集進(jìn)行均勻分布分割,將70%的數(shù)據(jù)分配給訓(xùn)練集,30%的數(shù)據(jù)分配給測(cè)試集。

        2.2 不同激活函數(shù)下模型的識(shí)別精度分析

        為評(píng)價(jià)BHNN 模型對(duì)激活函數(shù)的適應(yīng)性,以GeLU、ReLU、Linear、LeakyReLU、Softmax、ELU 6 種激活函數(shù)測(cè)試,BHNN 在不同激活函數(shù)下分類(lèi)精度對(duì)比如圖4 所示,即其在RadioML2016.10a和RadioML2016.10b 數(shù)據(jù)集上的測(cè)試結(jié)果。

        圖4 BHNN 在不同激活函數(shù)下分類(lèi)精度對(duì)比

        (1)RadioML2016.10a 數(shù)據(jù)集測(cè)試,ReLU 函數(shù)的分類(lèi)性能明顯優(yōu)于其他激活函數(shù),信噪比為0 dB 時(shí)分類(lèi)準(zhǔn)確率達(dá)到80%以上,其他激活函數(shù)均未達(dá)80%。信噪比大于4 dB 時(shí)分類(lèi)性能趨于穩(wěn)定,ReLU 函數(shù)分類(lèi)準(zhǔn)確率最高為89%;ReLU、GeLU、LeakyReLU 以及ELU 函數(shù)分類(lèi)準(zhǔn)確率穩(wěn)定在80%~85%;Softmax 和Linear 函數(shù)分類(lèi)效果較差,準(zhǔn)確率低于75%。

        (2)RadioML2016.10b 數(shù)據(jù)集測(cè)試,高信噪比下ReLU、GeLU、SeLU、LeakyReLU 以及ELU 5 種激活函數(shù)分類(lèi)性能相似;當(dāng)信噪比大于-8 dB且小于4 dB 時(shí),SeLU 函數(shù)的分類(lèi)效果明顯低于其他4 種激活函數(shù)。與小數(shù)據(jù)集情況相似,Softmax 和Linear 函數(shù)在大數(shù)據(jù)集分類(lèi)效果最差,高信噪比下分類(lèi)準(zhǔn)確率低于85%。

        經(jīng)對(duì)比分析,ReLU 在兩數(shù)據(jù)集的分類(lèi)效果均較好,因此最終在模型中選用ReLU 激活函數(shù)。

        2.3 不同DropBlock 參數(shù)下模型的識(shí)別精度分析

        keep_prob 和block_size 是DropBlock 正則化中的兩個(gè)重要參數(shù),兩者的改變影響著DropBlock 的效果,為使DropBlock 對(duì)BHNN模型正則化效果達(dá)到最佳,使用 RadioML 2016.10a 和RadioML2016.10b 數(shù)據(jù)集分別測(cè)試兩個(gè)參數(shù)。

        據(jù)文獻(xiàn)[12]假設(shè)keep_prob=0.7 為最佳值,對(duì)比不同的 block_size 值。DropBlock 在不同block_size 值下的分類(lèi)精度如圖5 所示,基于RadioML2016.10a 和RadioML2016.10b 數(shù)據(jù)集測(cè)試時(shí),隨著block_size 值的減小,分類(lèi)效果逐漸提高,當(dāng)block_size=2 時(shí),模型的分類(lèi)性能最優(yōu)異。

        圖5 DropBlock 在不同block_size 值下的分類(lèi)精度

        將block_size值設(shè)為2,比較不同的keep_prob值。DropBlock 在不同keep_prob 值下的分類(lèi)精度如圖6 所示,隨著keep_prob 值的增大,分類(lèi)精度逐漸升高,keep_prob=0.7 時(shí)性能最佳,繼續(xù)增大后性能反而下降,基于RadioML 2016.10a 測(cè)試時(shí),keep_prob=0.4 時(shí)模型喪失分類(lèi)能力,分類(lèi)精度穩(wěn)定在10%。

        圖6 DropBlock 在不同keep_prob 值下的分類(lèi)精度

        經(jīng)對(duì)比分析,DropBlock 正則化中最終選用block_size=2、keep_prob=0.7 的參數(shù)組合。

        為避免網(wǎng)絡(luò)出現(xiàn)梯度消失和過(guò)擬合等問(wèn)題,在BHNN 模型中引入DropBlock 正則化,BHNN加與不加DropBlock 的分類(lèi)精度對(duì)比如圖7所示。

        圖7 BHNN 加與不加DropBlock 的分類(lèi)精度對(duì)比

        (1)RadioML2016.10a 數(shù)據(jù)集測(cè)試,信噪比小于-5 dB 時(shí),加入DropBlock 的模型分類(lèi)效果較好;在-5~-1 dB 區(qū)間內(nèi),兩模型分類(lèi)效果相似;信噪比大于-1 dB 時(shí),加入DropBlock 的模型分類(lèi)效果較好,分類(lèi)準(zhǔn)確率最高為89%。

        (2)RadioML2016.10b 數(shù)據(jù)集測(cè)試,當(dāng)信噪比低于-10 dB,不加入DropBlock 的模型效果較好;信噪比高于-10 dB 時(shí),加入DropBlock 的模型分類(lèi)效果明顯優(yōu)于不加DropBlock,并在0 dB時(shí)分類(lèi)準(zhǔn)確率達(dá)到90%。高信噪比下分類(lèi)精度最高可達(dá)93.6%。

        正則化能夠防止過(guò)擬合,在模型中添加正則化可以限制模型的復(fù)雜度,為驗(yàn)證DropBlock 正則化對(duì)模型的適應(yīng)性,以L1、L2、L1L2、L1_L2正則化對(duì)比測(cè)試,以上4 種正則化均從Tensorflow庫(kù)中直接調(diào)用,不同正則化方法的參數(shù)設(shè)置見(jiàn)表6。

        表6 不同正則化方法的參數(shù)設(shè)置

        模型在不同正則化下的分類(lèi)精度如圖8 所示,即不同正則化在 RadioML2016.10a 和RadioML2016.10b 數(shù)據(jù)集上的測(cè)試結(jié)果。

        圖8 模型在不同正則化下的分類(lèi)精度

        (1)RadioML2016.10a 數(shù)據(jù)集測(cè)試,在低信噪比下5 種正則化分類(lèi)準(zhǔn)確率大致相同,因?yàn)榈托旁氡认?,大量干擾信息淹沒(méi)了大部分信號(hào)特征,導(dǎo)致大多調(diào)制方式的識(shí)別精度較低,從而降低了整體識(shí)別精度;當(dāng)信噪比大于-6 dB 時(shí),DropBlock 的分類(lèi)效果明顯高于其他4 種正則化。

        (2)RadioML2016.10b 數(shù)據(jù)集測(cè)試,當(dāng)信噪比大于-8 dB 且小于2 dB 時(shí),DropBlock 分類(lèi)效果明顯高于其他4 種正則化;當(dāng)信噪比小于-8 dB和大于2 dB 時(shí),5 種正則化的分類(lèi)精度相似。

        實(shí)驗(yàn)結(jié)果表明,加入DropBlock 正則化后模型避免了過(guò)擬合等問(wèn)題,分類(lèi)效果在兩個(gè)數(shù)據(jù)集上均有明顯提升,且DropBlock 正則化更適用于卷積層的正則化,其對(duì)模型過(guò)擬合問(wèn)題的抑制能力優(yōu)于其他正則化方法。

        2.4 不同神經(jīng)網(wǎng)絡(luò)的識(shí)別精度對(duì)比分析

        混淆矩陣是分類(lèi)問(wèn)題的一個(gè)衡量指標(biāo)。樣例根據(jù)真實(shí)情況與預(yù)測(cè)類(lèi)別的組合被劃分為4 種情形,顯然可得真正例數(shù)+假正例數(shù)+真反例數(shù)+假反例數(shù)=樣例總數(shù),分類(lèi)結(jié)果的混淆矩陣見(jiàn)表7。

        表7 分類(lèi)結(jié)果混淆矩陣

        混淆矩陣也稱(chēng)誤差矩陣,能夠直觀反映識(shí)別結(jié)果的分布情況,對(duì)于多分類(lèi)問(wèn)題通常使用M×M的矩陣,其中對(duì)角線的分類(lèi)是正確的,對(duì)角線之外均為錯(cuò)誤的。BHNN 在RadioML 2016.10a 數(shù)據(jù)集上的混淆矩陣如圖 9 所示,BHNN 在RadioML2016.10b 數(shù)據(jù)集上的混淆矩陣如圖10 所示,即BHNN 模型對(duì)信號(hào)分類(lèi)后的混淆矩陣,對(duì)角線上的單元格表示預(yù)測(cè)與真實(shí)標(biāo)簽一致,顏色越深,預(yù)測(cè)精度越高。

        圖9 BHNN 在RadioML2016.10a 數(shù)據(jù)集上的混淆矩陣

        圖10 BHNN 在RadioML2016.10b 數(shù)據(jù)集上的混淆矩陣

        由于RadioML2016.10a 數(shù)據(jù)樣本量小,模型泛化能力較差,在該數(shù)據(jù)集上對(duì)信號(hào)分類(lèi)識(shí)別時(shí)效果并不理想。識(shí)別的誤差主要發(fā)生在16QAM與64QAM 之間,WBFM 主要預(yù)測(cè)為AM-DSB,兩者都屬于連續(xù)調(diào)制,它們之間的變化在復(fù)雜信道下受到限制,并且采樣的模擬信號(hào)包含沉默間隔,加劇了WBFM 與AM-DSB 之間的混淆。RadioML2016.10b 數(shù)據(jù)樣本量更大,分類(lèi)效果相對(duì)較好,在該數(shù)據(jù)集上對(duì)信號(hào)分類(lèi)識(shí)別時(shí)改善了16QAM 與64QAM 間的混淆,誤差主要發(fā)生在WBFM 與AM-DSB 間。

        為驗(yàn)證BHNN 模型的有效性,本節(jié)基于RadioML2016.10a 與RadioML2016.10b 數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn),將CNN[11]、ResNet[11]、LSTM、BiGRU與BHNN 模型對(duì)比,結(jié)果如圖11 所示。

        圖11 各模型分類(lèi)精度對(duì)比

        (1)RadioML2016.10a 數(shù)據(jù)集測(cè)試,當(dāng)信噪比小于-4 dB 時(shí),5 種網(wǎng)絡(luò)模型的分類(lèi)效果相似;隨著信噪比的增大,模型性能趨于穩(wěn)定,在高信噪比下,BHNN 模型的分類(lèi)準(zhǔn)確率可達(dá)88.5%;ResNet、BiGRU 和LSTM 模型分類(lèi)性能相似,分類(lèi)精度穩(wěn)定在82%左右;CNN 模型分類(lèi)性能較差,分類(lèi)準(zhǔn)確率低于75%。

        (2)RadioML2016.10b 數(shù)據(jù)集測(cè)試,當(dāng)信噪比小于-6 dB 時(shí),5 種網(wǎng)絡(luò)模型的分類(lèi)效果相似;當(dāng)信噪比大于-6 dB 時(shí),CNN 模型的分類(lèi)性能明顯低于其他4 種模型,分類(lèi)準(zhǔn)確率最高為81.1%;BHNN 模型與ResNet、BiGRU 和LSTM 網(wǎng)絡(luò)模型相比分類(lèi)性能差距較小,略微領(lǐng)先于另外3 個(gè)模型,最高分類(lèi)準(zhǔn)確率為93.63%。

        為進(jìn)一步研究DropBlock 正則化對(duì)提高模型精度的有效性,分別在CNN[11]、ResNet[11]、LSTM、BiGRU 模型中加入DropBlock 正則化,并與BHNN 模型對(duì)比,各模型加DropBlock 后的分類(lèi)精度對(duì)比如圖12 所示。

        圖12 各模型加DropBlock 后的分類(lèi)精度對(duì)比

        (1)RadioML2016.10a 數(shù)據(jù)集測(cè)試,除ResNet模型外,BHNN 的分類(lèi)準(zhǔn)確率明顯優(yōu)于其他3 個(gè)模型;當(dāng)信噪比大于3 dB 時(shí),BHNN 模型的分類(lèi)準(zhǔn)確率超過(guò)85%,在3~18 dB 范圍內(nèi)的平均分類(lèi)準(zhǔn)確率比其他3 種模型高6%~9%;但在低信噪比情況下,所有模型的分類(lèi)準(zhǔn)確率基本一致。

        (2)RadioML2016.10b 數(shù)據(jù)集測(cè)試,除CNN模型外,信噪比大于-5 dB 且小于0 dB 情況下,BHNN 的分類(lèi)準(zhǔn)確率略優(yōu)于除CNN 外的其他3 種模型;在信噪比大于0 dB 時(shí),BHNN 與3 種模型分類(lèi)準(zhǔn)確率基本相同,因?yàn)閿?shù)據(jù)集樣本量越大,模型訓(xùn)練充足,泛化能力強(qiáng)。

        仿真結(jié)果表明,BHNN模型在RadioML2016.10b數(shù)據(jù)集上分類(lèi)性能優(yōu)于RadioML2016.10a 數(shù)據(jù)集,說(shuō)明數(shù)據(jù)樣本量越大,模型訓(xùn)練越充足,泛化能力越強(qiáng);模型加入DropBlock 后分類(lèi)效果均有提升,說(shuō)明DropBlock 能夠有效防止模型產(chǎn)生過(guò)擬合。下一步工作將聚焦于優(yōu)化模型在小數(shù)據(jù)集上的分類(lèi)性能。

        3 結(jié)束語(yǔ)

        深度神經(jīng)網(wǎng)絡(luò)在提高無(wú)線電信號(hào)識(shí)別的準(zhǔn)確性和靈敏度方面展示出巨大的潛力。本文提出了一種雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)模型,該模型結(jié)合ResNet模型可以避免梯度消失或梯度爆炸、BiGRU 模型能減少過(guò)擬合的優(yōu)點(diǎn)。仿真結(jié)果表明,基于RadioML2016.10a 測(cè)試時(shí),BHNN 的最高分類(lèi)準(zhǔn)確率為89%;基于RadioML2016.10b 測(cè)試時(shí),BHNN的最高分類(lèi)準(zhǔn)確率為93.63%,相同仿真條件下分類(lèi)性能均優(yōu)于CNN、LSTM、BiGRU 和ResNet 模型。為避免模型訓(xùn)練時(shí)出現(xiàn)過(guò)擬合現(xiàn)象,模型中引入DropBlock 正則化,并與L1、L2、L1L2、L1_L2 4 種正則化方法對(duì)比,仿真結(jié)果表明,BHNN 模型引入DropBlock 正則化后分類(lèi)效果有明顯提升。

        猜你喜歡
        正則信噪比準(zhǔn)確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
        剩余有限Minimax可解群的4階正則自同構(gòu)
        類(lèi)似于VNL環(huán)的環(huán)
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        保持信噪比的相位分解反褶積方法研究
        国产免费爽爽视频在线观看| 国产精品黄色av网站| 一本色道久久亚洲精品| 又大又长粗又爽又黄少妇视频 | 精品国产乱码久久久软件下载| 高清国产美女一级a毛片在线| 极品美女高潮喷白浆视频| 久久中文字幕av第二页| av日韩高清一区二区| 免费网站看v片在线18禁无码| 欧美人成人亚洲专区中文字幕| 中文字幕亚洲精品人妻| 日本一级二级三级不卡| 狼人青草久久网伊人| 亚欧AV无码乱码在线观看性色| 国产精品 精品国内自产拍| 在线观看女同一区二区| 人人妻人人澡人人爽欧美一区| 午夜无码片在线观看影视| 麻豆国产av尤物网站尤物| 东京热日本道免费高清| 国产精品无码一区二区三区在| 国产专区国产av| 中国女人a毛片免费全部播放| 国产三区三区三区看三区| 色偷偷av一区二区三区| 亚洲精品成人专区在线观看| 久久精品国产亚洲av热九| 大陆成人精品自拍视频在线观看 | 尤物成av人片在线观看| 国产精品亚洲а∨无码播放| 国产白丝无码视频在线观看| 久久无码高潮喷水抽搐| 国产精品成人自拍在线观看| 国产色在线 | 亚洲| 亚洲欧美综合在线天堂| 国产精品天干天干在线观蜜臀| 久久伊人精品中文字幕有尤物 | 欧美最猛性xxxxx免费| 91久久国产综合精品| 少妇又紧又爽丰满在线视频 |