亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于生成對抗與卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制識別方法

        2022-03-11 02:33:12朱苗苗王光宇
        關(guān)鍵詞:時頻識別率卷積

        邵 凱, 朱苗苗, 王光宇

        (1. 重慶郵電大學(xué)通信與信息工程學(xué)院, 重慶 400065; 2. 移動通信教育部工程研究中心,重慶 400065; 3. 移動通信技術(shù)重慶市重點實驗室, 重慶 400065)

        0 引 言

        自動調(diào)制識別是指自動識別接收信號的調(diào)制類型,是頻譜監(jiān)測、信息對抗、認知無線電等各種應(yīng)用中的一項重要技術(shù)。隨著無線通信技術(shù)的日益發(fā)展,信號的調(diào)制趨于多樣化,電磁環(huán)境也越來越復(fù)雜。對實時高效的調(diào)制識別技術(shù)的研究,具有重大的現(xiàn)實意義。

        目前調(diào)制識別的研究方法主要可以分為兩類:一是基于似然比(likelihood based,LB)的調(diào)制識別,二是基于特征(feature based,FB)的調(diào)制識別。LB方法是通過對似然函數(shù)進行處理,將得到的似然比與閾值進行比較,從而對調(diào)制信號進行分類。盡管LB方法在貝葉斯意義上可得到最優(yōu)解,但需要參數(shù)估計或有關(guān)信道知識的假設(shè)。當未知參數(shù)較多時,識別準確率會嚴重下降;當調(diào)制信號的類型較多時,LB方法的計算復(fù)雜度會升高。相比之下FB方法可以通過從接收信號中提取特征來區(qū)分信號,無需參數(shù)估計,計算復(fù)雜度低。FB性能主要取決于兩個因素:合適的特征集和有效的分類方法。多年來,人們對瞬時特征、高階統(tǒng)計量、循環(huán)平穩(wěn)特征、星座形狀、時頻特征等各種特征進行了研究,以提升系統(tǒng)性能。

        隨著深度學(xué)習(xí)在圖像識別領(lǐng)域得到廣泛應(yīng)用,有學(xué)者利用時頻分析將信號轉(zhuǎn)化為時頻圖像(time-frequency images,TFIs),再經(jīng)深度學(xué)習(xí)模型來自動提取信號的時頻特征。文獻[12]提出一種基于時頻分布和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的盲調(diào)制識別方法,將TFIs直接作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)識別算法中復(fù)雜的人工特征提取和數(shù)據(jù)重構(gòu)。但在低信噪比(signal to noise ratio, SNR)情況下,TFIs嚴重失真,深度學(xué)習(xí)網(wǎng)絡(luò)不能有效提取信號特征從而導(dǎo)致成功識別率低。因此,文獻[13]提出一種新的基于時頻變換的調(diào)制識別融合算法,將AlexNet提取到的信號細節(jié)特征與HuMoments表示的信號形狀特征進行融合,并利用廣義回歸神經(jīng)網(wǎng)絡(luò)(generalized regression neural network,GRNN)對調(diào)制模式進行分類以進一步提高識別率。文獻[14]利用數(shù)字圖像處理技術(shù)將Choi-Williams變換得到的二維TFIs處理成二值圖像以降低噪聲干擾。然而,二值化處理會丟失TFIs的能量分布信息,從而降低信號的識別率。為了提取信號特征,文獻[15]通過自適應(yīng)維納濾波算法濾除背景噪聲,再經(jīng)連通域檢測算法將TFIs裁剪成適合CNN訓(xùn)練的維度,該方法可以在一定程度上降低噪聲干擾,但提升識別率能力有限。

        由于生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)具有較強的樣本模擬能力,在圖像去噪領(lǐng)域得到了成功應(yīng)用。且GAN在處理圖像過程中無需人為設(shè)計參數(shù),經(jīng)該網(wǎng)絡(luò)重新生成的圖像能保持自身的細節(jié)紋理特征。因此,本文使用GAN對帶噪TFIs進行預(yù)處理,提出了一種基于GAN與CNN(GAN-CNN)的數(shù)字信號調(diào)制識別方案,主要由時頻處理、圖像去噪和分類識別3部分組成。第1部分利用平滑偽Wigner-Ville分布(smooth pseudo Wigner-Ville distribution,SPWVD)將所有信號轉(zhuǎn)換成時間和頻率的二維圖像,然后經(jīng)雙線性插值對TFIs進行預(yù)處理。第2部分設(shè)計了嵌入剩余密集塊(residual dense block,RDB)的去噪GAN,可以直接提取TFIs的魯棒性特征,有效地去除TFIs中的噪聲。同時,通過構(gòu)造重建損失與對抗損失的加權(quán)和損失函數(shù),避免了低SNR條件下的圖像細節(jié)信息丟失。第3部分微調(diào)CNN中經(jīng)典的剩余網(wǎng)絡(luò)(residual network, ResNet)模型來識別被處理的TFIs。仿真結(jié)果表明,所提出的GAN-CNN能有效降低TFIs中的噪聲干擾,提高了低SNR下的成功識別率。

        1 信號模型與時頻分布

        1.1 信號模型

        接收到的數(shù)字調(diào)制信號如下:

        ()=()+()

        (1)

        式中:()是發(fā)送的調(diào)制信號,可以表示為

        cos(2π(+)++)

        (2)

        式中:分別是調(diào)制幅度和符號序列;()為符號周期內(nèi)形成的波形脈沖;為符號周期;表示載波頻率和調(diào)制頻率;和表示初始相位和調(diào)制相位;()為加性高斯白噪聲。

        1.2 時頻分布

        文獻[19]中使用短時傅里葉變換(short-time Fourier transform,STFT)來處理信號。雖然STFT可以表示信號的時頻域特征,但該方法時頻分辨率低,不適用于對時頻精度要求過高的場景。與STFT不同,Wigner-Ville分布使用信號的正負移位之積構(gòu)成一種“雙線性形式”的變換。具有時頻分辨率高的特點,但會產(chǎn)生交叉項。為有效防止交叉項,使用平滑偽Wigner-Ville分布:

        (3)

        式中:和分別表示時間和頻率;()和()為窗口函數(shù);(·)是(·)的共軛函數(shù)。

        作為示例,圖1給出了幾種調(diào)制信號在SNR為-10 dB情況下的SPWVD變換情況。圖1中,橫向中心區(qū)域連續(xù)線狀體為調(diào)制信號,其余雜項為噪聲。由此可見,SPWVD雖可改善交叉項的影響,但在低SNR條件下TFIs仍存在部分失真。

        圖1 SNR=-10 dB下部分調(diào)制信號SPWVD生成圖Fig.1 SPWVD generation diagram of partial modulated signal at SNR=-10 dB

        2 GAN-CNN的調(diào)制識別方案

        如圖2所示,GAN-CNN主要由3部分組成:時頻處理、去噪網(wǎng)絡(luò)和識別網(wǎng)絡(luò)。有關(guān)時頻處理模塊已經(jīng)在第1節(jié)介紹,下面將重點介紹GAN去噪網(wǎng)絡(luò)與CNN識別網(wǎng)絡(luò)的構(gòu)造。

        圖2 GAN-CNN的調(diào)制識別方案Fig.2 Modulation recognition scheme of GAN-CNN

        2.1 用于圖像去噪的GAN結(jié)構(gòu)

        GAN由生成網(wǎng)絡(luò)和鑒別網(wǎng)絡(luò)兩部分組成,主要用于對帶噪TFIs進行去噪。為提高GAN輸出圖像的質(zhì)量,將用于圖像超分辨率重建的RDB嵌入到生成器中,GAN的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        2.1.1 生成網(wǎng)絡(luò)

        生成網(wǎng)絡(luò)的目的是將帶噪圖像經(jīng)非線性映射到去噪圖像。帶噪TFIs首先經(jīng)過一個卷積核大小為7×7的卷積層來提取底層特征,并加入線性整流函數(shù)ReLU進行非線性映射。接著對TFIs進行下采樣處理以降低圖像的分辨率,卷積核為5×5,步長為2,并在卷積層后加入Dropout防止過擬合。然后利用6個RDB提取圖像的局部特征。最后經(jīng)上采樣卷積塊重建去噪后的TFIs。

        圖3 GAN的網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Network structure of GAN

        圖3生成網(wǎng)絡(luò)部分中給出了第個RDB的內(nèi)部結(jié)構(gòu),通過將前一個RDB的狀態(tài)傳遞給當前RDB的每一層來實現(xiàn)連續(xù)存儲。-1作為第個RDB的輸入,為輸出。第個RDB中第個卷積層的輸出為

        ,=(,[-1,,1,,2,…,,-1]),
        ,∈{1,2,3,4,5,6}

        (4)

        式中:(·)表示ReLU激活函數(shù);,是第個RDB中第個卷積層的權(quán)重;[-1,,1,,2,…,,-1]是括號內(nèi)各特征映射的級聯(lián)表示。假設(shè)-1有個特征映射,每經(jīng)過一個卷積層產(chǎn)生個特征映射,則共產(chǎn)生+(-1)個特征映射。隨著卷積層數(shù)量的增加,特征映射數(shù)量也隨之增加,從而導(dǎo)致訓(xùn)練難度增大。為了減少特征映射數(shù)量,將第7個卷積層的大小設(shè)置為1×1,使得-1的特征映射數(shù)目相等。最后,加入跳躍連接將淺層特征和深層特征相關(guān)聯(lián),表示為=,7+-1

        212 鑒別網(wǎng)絡(luò)

        鑒別網(wǎng)絡(luò)用于鑒別生成的去噪圖像與純凈圖像是否相似。本文設(shè)計的鑒別網(wǎng)絡(luò)為全卷積網(wǎng)絡(luò),由4層卷積層組成,目的是對輸入的生成圖像和純凈圖像進行特征提取。圖3顯示的鑒別網(wǎng)絡(luò)中“LReLU”表示Leakey-ReLU激活函數(shù),“INorm”表示實例規(guī)范化,且全部使用卷積核為5×5的卷積層,最后通過全連接層,由Sigmoid輸出判決結(jié)果。

        2.1.3 損失函數(shù)

        損失函數(shù)采用重建損失與對抗損失的加權(quán)和:

        =+

        (5)

        式中:是超參數(shù);和分別為重建損失與對抗損失。

        重建損失函數(shù)表示為

        (6)

        對抗性的損失也被稱為GAN損失。設(shè)為用于訓(xùn)練的真實圖像數(shù)據(jù),為噪聲數(shù)據(jù),GAN損失可以表示為

        (7)

        式中:(,)表示GAN聯(lián)合損失;()為圖像數(shù)據(jù)集的分布;()為噪聲的分布;()是鑒別器預(yù)測真實圖像的結(jié)果;()是經(jīng)生成器生成的假圖像;(())表示鑒別器預(yù)測假圖像的結(jié)果。

        在訓(xùn)練的生成階段,希望生成的圖像越接近真實圖像越好,即要求(())盡可能的大,最佳結(jié)果為(())=1,此時鑒別器將所有的假圖像都預(yù)測為真圖像。因此對于生成器,(,)越小越好:

        (8)

        然后,生成器將通過降低其梯度來更新權(quán)重:

        (9)

        式中:是訓(xùn)練數(shù)據(jù)批大小;()是小批量數(shù)據(jù)中的噪聲向量。

        在訓(xùn)練的鑒別階段,的能力越強則()越大,同時(())越小,故的最佳結(jié)果是()=1和(())=0。因此對于鑒別器,(,)越大越好:

        (10)

        更新權(quán)重:

        (11)

        令′={,}、′={,},其中=()表示經(jīng)生成的去噪圖像。最后,對抗性損失可表示為

        (12)

        該損失函數(shù)可緩解式(6)所產(chǎn)生的過擬合問題。

        GAN的具體流程如下所示。

        算法 1 GAN輸入 純凈圖像Ipure,帶噪圖像Inoised輸出 去噪圖像Idenoisedfor 訓(xùn)練迭代次數(shù) do1.樣本n批處理純凈集圖像Ipure與帶噪集圖像Inoised2.經(jīng)生成器G得生成去噪圖像Idenoised←G(Inoised)3.將x'定義為{Inoised,Ipure}、y'定義為{Inoised,Idenoised}4.LD←1n∑n1 ln(Dw(x'))+ln(1-Dw(y')) 5.通過Adam(w,LD,α)更新鑒別器D6.LG←1n∑n1 ln(Dw(x'))+ln(1-Dw(y')) + λ1n∑n1Ipure-Gθ(Inoised)17.通過Adam(θ,LG,α)更新生成器Gend

        2.2 用于識別的CNN結(jié)構(gòu)

        如圖4所示,CNN由輸入層、卷積層、池化層、全連接層和輸出層組成。其中,卷積層是CNN的重要組成部分,通過卷積核作用于局部區(qū)域來獲取局部信息。池化層用于壓縮輸入特征映射,簡化了網(wǎng)絡(luò)的計算復(fù)雜度。全連接層結(jié)合了輸入數(shù)據(jù)的所有特征,并將輸出值發(fā)送給分類器。

        圖4 CNN的網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Network structure of CNN

        文獻[21]指出隨著網(wǎng)絡(luò)深度的增加不僅不能提升系統(tǒng)性能,反而會導(dǎo)致模型收斂變慢、效果變差。為緩解網(wǎng)絡(luò)退化問題,引入殘差結(jié)構(gòu),允許任意低層的特征映射直接傳播到高層。同時,殘差結(jié)構(gòu)使模型更易于優(yōu)化。因此,本文采用ResNet作為特征提取器,并使用批標準化(batch normalization,BN)來加速網(wǎng)絡(luò)的收斂速度以提升準確率。主要工作為以下兩點。

        2.2.1 BN

        對于一個擁有維的輸入=(,…,(),…,()),對其每個維度進行BN處理可表示為

        (13)

        (14)

        式中:和是兩個需要學(xué)習(xí)的參數(shù)。

        222 特征提取

        本文采用遷移學(xué)習(xí)的方法來加快訓(xùn)練效率。因TFIs不同于網(wǎng)絡(luò)預(yù)訓(xùn)練模型所使用的大規(guī)模自然圖像,引入一個微調(diào)的ResNet模型以滿足訓(xùn)練要求。首先,刪除ResNet模型的最后一層全連接層,以確保網(wǎng)絡(luò)輸出同調(diào)制類型數(shù)量相同。其次,在最后一個卷積層之后加入池化層,以減少參數(shù)數(shù)量,提升網(wǎng)絡(luò)性能。最后,將學(xué)習(xí)率設(shè)置為0.001,以避免模型權(quán)重扭曲過快。

        為了分析所提網(wǎng)絡(luò)的內(nèi)部操作,在提取TFIs特征時,對首層卷積和末層卷積做了可視化輸出。圖5顯示了64個像素為112×112的低階特征。圖6顯示了前256個像素為7×7的高階特征。對比圖5與圖6可以發(fā)現(xiàn),首層提取到的TFIs特征較接近送入網(wǎng)絡(luò)的初始TFIs,而末層提取到的特征更趨于多樣化,這也更有利于分類。

        圖5 首層卷積輸出Fig.5 First convolution layer output

        圖6 末層卷積部分輸出Fig.6 Output of the last layer convolution section

        3 仿真分析

        本節(jié)首先給出了實驗信號的參數(shù)設(shè)置以及實驗流程。其次,為了驗證GAN-CNN的有效性,在同數(shù)據(jù)下對文獻[13-15]所用算法進行了性能對比。然后,為了分析去噪處理對該方案的影響,做了對比實驗。最后,對文中所涉算法進行了計算復(fù)雜度比較。

        3.1 實驗數(shù)據(jù)及實驗流程

        3.1.1 參數(shù)設(shè)置

        本文對二進制振幅鍵控(2-ary amplitude shift keying,2ASK)、四進制振幅鍵控(4-ary amplitude shift keying,4ASK)、二進制頻移鍵控(2-ary frequency shift keying,2FSK)、四進制頻移鍵控(4-ary frequency shift keying,4FSK)、八進制頻移鍵控(8-ary frequency shift keying,8FSK)、二進制相移鍵控(2-ary phase shift keying,2PSK)、四進制相移鍵控(4-ary phase shift keying,4PSK)、八進制相移鍵控(8-ary phase shift keying,8PSK)和16進制正交幅度調(diào)制(16-ary quadrature amplitude modulation,16QAM)共9種常用的數(shù)字調(diào)制信號進行識別。信號的參數(shù)設(shè)置如下:采樣頻率為64 kHz,載波頻率為16 kHz,碼元數(shù)目為128,每個信號產(chǎn)生10個符號數(shù)。所有的信號源都是在Matlab 2017b中創(chuàng)建的。對于GAN,按SNR[-10 dB∶2 dB∶8 dB]各生成900個帶噪樣本及900個純凈樣本,再經(jīng)SPWVD共轉(zhuǎn)換成9 000個帶噪圖像和9 000個純凈圖像,取其中700對作為GAN訓(xùn)練集,200對為測試集;對于CNN網(wǎng)絡(luò),在相同的SNR條件下,每個信號隨機產(chǎn)生1 000個樣本,SNR按[-10 dB∶2 dB∶8 dB]共產(chǎn)生90 000個樣本,經(jīng)SPWVD得到各信號不同SNR下的TFIs。

        3.1.2 尺寸調(diào)整

        因ResNet的輸入尺寸限制,本文通過雙線性插值將信號的二維TFIs大小調(diào)整為224×224以便數(shù)據(jù)處理。假設(shè)原始圖像大小為×,調(diào)整后圖像×的像素點可以表示為

        (,)=(+,+)=(1+)(1-)(,)+
        (1-)(,+1)+(1-)(+1,)+(+1,+1)

        (15)

        式中:和分別是的整數(shù)和小數(shù)部分;和是的整數(shù)和小數(shù)部分。

        313 實驗流程

        GAN-CNN實驗流程如下。

        SPWVD將調(diào)制信號轉(zhuǎn)換為TFIs,其大小為1 024×1 024。

        TFIs經(jīng)線性插值固定為224×224。

        GAN對預(yù)處理的TFIs進行訓(xùn)練,訓(xùn)練結(jié)束保留網(wǎng)絡(luò)參數(shù)。

        用于識別的90 000個樣本經(jīng)GAN去噪后按9∶1劃分CNN訓(xùn)練集與測試集。

        經(jīng)步驟4去噪后的圖像作為CNN的輸入,經(jīng)微調(diào)的ResNet模型識別數(shù)字信號的調(diào)制類型。

        3.2 實驗結(jié)果分析

        3.2.1 所提方案分類精度

        為了更好地說明GAN-CNN的性能,本文與文獻[13-15]中的方案進行了比較。圖7顯示了不同方法的成功識別概率與SNR的關(guān)系。

        圖7 不同方案識別結(jié)果對比Fig.7 Comparison of identification results of different methods

        在圖7中,文獻[13]所提方案在所有方案中表現(xiàn)欠佳,這是由于在將AlexNet提取到的特征與HuMoments提取的特征進行融合時,為避免高維帶來的大量計算而使用t-分布隨機鄰居嵌入(t-distributed stochastic neighbor embedding, t-SNE)對AlexNet數(shù)據(jù)進行降維,從而導(dǎo)致TFIs部分特征丟失,且并未消除低SNR條件下噪聲對TFIs的影響。文獻[14]雖對TFIs進行了預(yù)處理以消除背景噪聲,但在將TFIs二值化的過程中丟失了調(diào)制信號的細節(jié)特征。文獻[15]所提方案未經(jīng)二值化處理,保有信號原始特征,但在低SNR條件下成功識別率明顯低于所提方案,這表明本文所提調(diào)制識別方案GAN-CNN的去噪效果優(yōu)于文獻[15]所使用的自適應(yīng)維納濾波算法。此外,隨著SNR的降低,各方案分類精度也會降低,但總體而言,GAN-CNN的性能最佳。

        GAN-CNN網(wǎng)絡(luò)對各信號的成功識別概率隨SNR的變化曲線如圖8所示。隨著SNR的增大,各調(diào)制信號的分類準確度增大,SNR為-4 dB時,所有調(diào)制信號分類準確度均達到90%及以上。當SNR大于0 dB時,各調(diào)制信號的分類準確度接近100%。

        圖8 9種調(diào)制信號類型的識別率Fig.8 Recognition rate of nine modulation signal types

        為了探究在低SNR條件下限制正確識別概率的因素,圖9給出了4種方法在-10 dB SNR下的混淆矩陣。

        如圖9(a)所示,2PSK和4FSK的分類精度處于較高水平,而4ASK和4PSK的誤差高于其他調(diào)制類型。如圖1所示,2ASK與4ASK、4PSK與8PSK的TFIs像彼此相似,故4ASK與2ASK、4PSK與8PSK極易混淆。通過與圖9(b)、圖9(c)和圖9(d)對比可得,不同的識別方案對調(diào)制信號種類的敏感度不同,但所提方案GAN-CNN的混淆矩陣相對集中,對大部分調(diào)制類型的正確分類概率也高于其他3種方案。

        圖9 SNR=-10 dB下不同方法的混淆矩陣Fig.9 Confusion matrix of different methods at SNR=-10 dB

        3.2.2 GAN的影響

        為了分析GAN網(wǎng)絡(luò)對該方法分類精度的影響,對GAN-CNN網(wǎng)絡(luò)和去GAN的分類網(wǎng)絡(luò)進行了測試。圖10所示,在各SNR下,經(jīng)GAN預(yù)訓(xùn)練的網(wǎng)絡(luò)識別率均高于直接訓(xùn)練的網(wǎng)絡(luò)。在SNR為-10 dB時,經(jīng)GAN預(yù)訓(xùn)練的分類網(wǎng)絡(luò)的分類精度達到73%,而未經(jīng)GAN訓(xùn)練的分類網(wǎng)絡(luò)的分類精度僅為65%。同時觀測到在低SNR下成功識別率的提升要高于相對較高SNR情況下。這也說明低SNR下噪聲的存在使信號特征不明顯,TFIs在不同的類之間更趨于一致,因此更需要GAN來消除噪聲影響。

        圖10 GAN對分類網(wǎng)絡(luò)性能的影響Fig.10 Impact of GAN on classification network performance

        圖11給出SNR為-10 dB時,GAN網(wǎng)絡(luò)處理16QAM信號的前后TFIs。在較低SNR情況下,16QAM信號的輸入圖像受到嚴重的噪聲污染,信號特征不清晰。經(jīng)GAN處理后,重建的去噪圖像包含原始信號的細節(jié)信息,同時背景噪聲幾乎消失,信號特征明顯。因此,GAN有助于提取TFIs的魯棒特征,最終提高了本文方案的抗噪性能。

        圖11 SNR=-10 dB下GAN處理16QAM信號前后TFIsFig.11 TFIs before and after GAN processing 16QAM signal at SNR=-10 dB

        3.2.3 計算復(fù)雜度比較

        為了更有效地評估所涉及算法的計算復(fù)雜度,對不同方案的平均訓(xùn)練速度進行了比較。如圖12所示,文獻[13]所提方案每秒可處理11.67幅TFIs,本文所提方案處理速度略低于文獻[13],但明顯高于文獻[14-15]。這是由于本文與文獻[13]在對TFIs進行訓(xùn)練時,采用了遷移學(xué)習(xí)的方法提升了訓(xùn)練速度。文獻[13]使用GRNN對調(diào)制信號進行識別,該網(wǎng)絡(luò)較本文使用的ResNet網(wǎng)絡(luò)模型參數(shù)少、訓(xùn)練時間短,但識別精確度不如ResNet。因此,綜合考慮訓(xùn)練速度與識別精度,本文所提出的GAN-CNN具有較強競爭力。

        圖12 不同方案訓(xùn)練速度比較結(jié)果Fig.12 Comparison result of training speed of different programs

        4 結(jié) 論

        本文針對低SNR條件下TFIs失真導(dǎo)致成功識別率較低的問題,提出了一種基于GAN和CNN的數(shù)字信號調(diào)制識別方法。GAN去噪網(wǎng)絡(luò)去除了噪聲的干擾,使低SNR下大量的信號特征得以保留,從而提高分類網(wǎng)絡(luò)的分類精度。CNN識別網(wǎng)絡(luò)使用微調(diào)的ResNet模型,其優(yōu)秀架構(gòu)具有強大的分類能力,同時采用遷移學(xué)習(xí)來提升訓(xùn)練效率。實驗結(jié)果表明,GAN-CNN可以準確識別9種數(shù)字調(diào)制信號,在SNR為-6 dB時,識別成功率達到93%以上,具有較強的抗噪聲性能。

        猜你喜歡
        時頻識別率卷積
        基于時域全卷積網(wǎng)絡(luò)的語音增強
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        計算機工程(2020年3期)2020-03-19 12:24:50
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識別率方案研究
        高速公路機電日常維護中車牌識別率分析系統(tǒng)的應(yīng)用
        基于時頻分析的逆合成孔徑雷達成像技術(shù)
        對采樣數(shù)據(jù)序列進行時頻分解法的改進
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        亚洲国产精品福利片在线观看 | 开心五月婷婷综合网站| 91麻豆精品激情在线观最新| 国产精品亚洲在线播放| 风韵犹存丰满熟妇大屁股啪啪| 色又黄又爽18禁免费网站现观看 | 国产果冻豆传媒麻婆精东| 国产探花在线精品一区二区| 玩两个丰满老熟女| 国产在视频线精品视频二代| 青青青视频手机在线观看| 国产成人一区二区三区影院| 妺妺窝人体色www在线| 白丝兔女郎m开腿sm调教室| 精品无码一区二区三区亚洲桃色| 国产精品无码一区二区在线国| 国产精品丝袜在线不卡| 视频一区二区三区中文字幕狠狠| 亚洲精品天堂日本亚洲精品| 一区二区三区国产精品乱码| 图片小说视频一区二区| 精品www日韩熟女人妻| 丁香五香天堂网| 久久久亚洲精品蜜桃臀| 亚洲精品综合一区二区| 国产av久久在线观看| 久久久久88色偷偷| 国产性生交xxxxx免费| 国产欧美精品一区二区三区,| 久久青青草视频免费观看| 中文字幕有码久久高清| 无码精品人妻一区二区三区漫画| 一区二区三区国产| 国产白丝网站精品污在线入口| 强d乱码中文字幕熟女1000部| 黑丝美腿国产在线观看| 新婚人妻不戴套国产精品| 国产绳艺sm调教室论坛| 久久精品片| 国产精品日本一区二区三区| 国产精品国产三级野外国产|