亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制信號(hào)識(shí)別算法

        2021-09-09 06:27:32邵敏蘭周鴻漸張浩然
        實(shí)驗(yàn)室研究與探索 2021年8期
        關(guān)鍵詞:特征提取信噪比準(zhǔn)確率

        邵敏蘭, 周鴻漸, 張浩然

        (南京信息工程大學(xué)a.總務(wù)處;b.教務(wù)處;c.電子與信息工程學(xué)院,南京210044)

        0 引 言

        自動(dòng)調(diào)制識(shí)別(Automatic Modulation Recognition,AMR)是解調(diào)前的一項(xiàng)重要的技術(shù),主要應(yīng)用于軍事中的電子戰(zhàn)[1]和民用領(lǐng)域中的非法監(jiān)管。AMR技術(shù)還可提高認(rèn)知無(wú)線電[2]和軟件無(wú)線電[3]中的頻譜使用效率[4]。研究高效可靠的調(diào)制識(shí)別技術(shù)具有重要學(xué)術(shù)價(jià)值和工程實(shí)踐意義。

        AMR算法分為兩類(lèi):一是基于決策理論的最大似然假設(shè)檢驗(yàn)識(shí)別算法,包括廣義似然比、平均似然比和混合似然識(shí)別算法[5];二是基于特征提取的模式識(shí)別算法[6]。由于后者的計(jì)算量小,所需先驗(yàn)信息少,所以基于特征提取的模式識(shí)別算法被廣泛研究,主要步驟有:數(shù)據(jù)預(yù)處理,特征提取和分類(lèi)識(shí)別。常用的信號(hào)特征包括高階累積量[7]、小波特征[8]和信號(hào)瞬時(shí)特征[9]等。分類(lèi)識(shí)別算法有:支持向量機(jī)(Support Vector Machine,SVM)[10],K最鄰近(K Nearest Neighbor,KNN)[11]和樸素貝葉斯等[12],這些算法需要進(jìn)行提取專(zhuān)家特征的過(guò)程,且識(shí)別準(zhǔn)確率較低。因深度學(xué)習(xí)算法在圖像識(shí)別領(lǐng)域中表現(xiàn)出優(yōu)勢(shì)[13],眾多研究者將其引入各種模式識(shí)別的應(yīng)用場(chǎng)景。深度學(xué)習(xí)算法中的卷積神經(jīng)網(wǎng)絡(luò)可以高效記憶和學(xué)習(xí)樣本特征,并且對(duì)數(shù)據(jù)沒(méi)有附加的特征提取要求,因此適合應(yīng)用在調(diào)制信號(hào)的分類(lèi)識(shí)別中。

        利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行自動(dòng)調(diào)制信號(hào)識(shí)別,主要的工作如下:為符合實(shí)際的信號(hào)傳輸環(huán)境,采用國(guó)際標(biāo)準(zhǔn)的調(diào)制信號(hào)數(shù)據(jù)集RaidoML2016.10a。將數(shù)據(jù)集中的信號(hào)IQ分量直接作為神經(jīng)網(wǎng)絡(luò)的輸入,避免傳統(tǒng)特征提取的計(jì)算步驟;設(shè)計(jì)兩層卷積層的CNN,增加樣本特征學(xué)習(xí)的多樣性,減小由網(wǎng)絡(luò)深度增加帶來(lái)的特征退化。實(shí)驗(yàn)結(jié)果表明,本文設(shè)計(jì)的CNN的識(shí)別準(zhǔn)確率優(yōu)于對(duì)比的調(diào)制信號(hào)識(shí)別算法。

        1 信號(hào)模型和累積量特征

        1.1 調(diào)制信號(hào)模型

        圖1所示為典型的無(wú)線通信系統(tǒng),其包括發(fā)射器、信道和接收器。接收器處的連續(xù)時(shí)間信號(hào)為

        圖1 無(wú)線通信系統(tǒng)組成

        式中:x(t)為按照時(shí)間t發(fā)送的信號(hào);f(t)為調(diào)制類(lèi)型;符號(hào)“?”為卷積操作;h(t)為信道效應(yīng);n(t)為加性噪聲。給定接收信號(hào)y(t),調(diào)制識(shí)別旨在預(yù)測(cè)f(t)的調(diào)制類(lèi)型。

        1.2 調(diào)制信號(hào)的累積量特征

        對(duì)于一、二階統(tǒng)計(jì)量,通常不能用于處理非線性、非高斯性或非最小相位系統(tǒng)相關(guān)的信號(hào)處理問(wèn)題。而高階統(tǒng)計(jì)量通常被用于解決這些類(lèi)型的信號(hào)處理問(wèn)題,對(duì)比的特征提取算法使用高階累積量作為樣本特征。

        令y(n)表示在時(shí)間n處的離散時(shí)間接收信號(hào),復(fù)數(shù)值接收信號(hào)y(n)的二階統(tǒng)計(jì)量可以表示為:C20=E[y2(n)]和C21=E[|y(n)|n],其中E(·)是期望函數(shù)。本文使用的特征為y(n)的四階統(tǒng)計(jì)量。復(fù)數(shù)值信號(hào)y(n)的四階統(tǒng)計(jì)量為

        式中,C40、C41和C42為四階統(tǒng)計(jì)量。具體而言,四階統(tǒng)計(jì)量的聯(lián)合累積量函數(shù)表示為

        2 基于卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制信號(hào)識(shí)別

        2.1 基于CNN的調(diào)制信號(hào)識(shí)別

        在使用CNN模型[14-17]進(jìn)行調(diào)制識(shí)別時(shí),由于CNN具有空間特征學(xué)習(xí)能力,可直接對(duì)調(diào)制信號(hào)的IQ分量進(jìn)行處理,本節(jié)將信號(hào)的原始樣本作為網(wǎng)絡(luò)的輸入。信號(hào)樣本采用國(guó)際標(biāo)準(zhǔn)數(shù)據(jù)集RML2016.10a_dict[19]。樣本χ由信號(hào)的同相和正交分量組成。由于樣本維度較小,本文設(shè)計(jì)的CNN不采用池化層來(lái)進(jìn)行特征的降維,具體的網(wǎng)絡(luò)結(jié)構(gòu)和部分參數(shù)如圖2所示。

        圖2 基于CNN的調(diào)制識(shí)別模型

        輸入層Input,輸入的樣本大小為2×128。輸入樣本采取補(bǔ)零操作,即在樣本兩側(cè)補(bǔ)上零矩陣,以保證樣本的邊緣特征能夠被學(xué)習(xí)到。網(wǎng)絡(luò)第2層為Conv1,卷積核個(gè)數(shù)為256,對(duì)應(yīng)輸出特征圖通道數(shù)也為256。此外,本層卷積核尺寸為1×3,滑動(dòng)步長(zhǎng)為1。激活函數(shù)設(shè)置為Relu,為更好滿(mǎn)足非線性需求,同時(shí)防止訓(xùn)練陷入局部最小。本層的輸出x1計(jì)算式為

        式中:xiq為補(bǔ)零后的IQ分量樣本;σ(·)為Relu函數(shù);W1、b1分別為第1層卷積層里的權(quán)重和偏置。

        網(wǎng)絡(luò)的第3層為Conv2,該層卷積核個(gè)數(shù)為128,卷積核尺寸為2×3,其余設(shè)置同卷積層1。這里增大了卷積核的尺寸,是為了學(xué)習(xí)二維信號(hào)特征的關(guān)聯(lián)性,減少冗余特征,本層輸出的特征圖尺寸較上一層卷積層的1輸出會(huì)有所減小。本層的輸出為

        網(wǎng)絡(luò)的最后兩層為全連接層,第1層全連接層的神經(jīng)元個(gè)數(shù)為256,它接收上層輸出的特征。在此之前,需對(duì)Conv2輸出的特征圖進(jìn)行壓平操作得到x′2,即將二維的特征壓平為一維。本全連接層的激活函數(shù)也為Relu,輸出的特征尺寸大小為1×256。其輸出的計(jì)算過(guò)程為

        式中:x′2為x2被拉平后的一維特征;Wd1和bd1分別為第1層全連接層里的權(quán)重和偏置。

        網(wǎng)絡(luò)最后的全連接層也為輸出層,激活函數(shù)為Softmax,以滿(mǎn)足多分類(lèi)的目的,神經(jīng)元個(gè)數(shù)與分類(lèi)的類(lèi)別數(shù)相同,這里為信號(hào)的類(lèi)別數(shù)11。此處的輸出預(yù)測(cè)標(biāo)簽為

        式中,ο(·)為Softmax函數(shù)。此外,設(shè)置網(wǎng)絡(luò)中前3層特征提取層的dropout系數(shù)為0.5,即同一時(shí)刻,只有一半神經(jīng)元處在激活狀態(tài),防止網(wǎng)絡(luò)訓(xùn)練時(shí)發(fā)生過(guò)擬合現(xiàn)象。

        2.2 CNN中激活函數(shù)的選擇

        Relu函數(shù)是當(dāng)前人工神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù),它在一定程度上緩解了梯度問(wèn)題,計(jì)算速度非???。Relu被使用在卷積層和全連接層,可加快模型的收斂速度,提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練性能。

        網(wǎng)絡(luò)輸出層的激活函數(shù)為Softmax,也稱(chēng)為歸一化指數(shù)函數(shù)。它是深度學(xué)習(xí)中非常普遍且重要的一種函數(shù)。Softmax常用于多分類(lèi)過(guò)程,將多個(gè)神經(jīng)元的輸出映射到(0,1)間隔中,并將其理解為計(jì)算多分類(lèi)的概率。其工作原理可解釋為某種類(lèi)型的特征加權(quán),將這些特征轉(zhuǎn)換為確定這種類(lèi)型的可能性。涉及信號(hào)分類(lèi)識(shí)別問(wèn)題,在CNN中,最后一層全連接層使用Softmax激活函數(shù)進(jìn)行分類(lèi)識(shí)別,最終輸出的是每個(gè)信號(hào)的概率。

        2.3 識(shí)別準(zhǔn)確率評(píng)價(jià)指標(biāo)

        準(zhǔn)確率計(jì)算公式為

        式中:n為樣本數(shù);^yi為第i個(gè)樣本的預(yù)測(cè)標(biāo)簽;yi為第i個(gè)樣本的真實(shí)標(biāo)簽。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集

        實(shí)驗(yàn)中,使用了RadioML2016.10a數(shù)據(jù)集作為輸入數(shù)據(jù),該數(shù)據(jù)集是目前調(diào)制識(shí)別研究中常被使用的數(shù)據(jù)樣本,有關(guān)生成此數(shù)據(jù)集的詳細(xì)信息可以在文獻(xiàn)[19]中找到。該數(shù)據(jù)集包含11種調(diào)制信號(hào)類(lèi)型,為8種數(shù)字調(diào)制和3種模擬調(diào)制,它們?yōu)锽PSK、QPSK、8PSK、16QAM、64QAM、BFSK、CPFSK和4PAM數(shù)字調(diào)制信號(hào),以及WBFM、AM-DSB和AM-SSB 3種模擬調(diào)制信號(hào)。該數(shù)據(jù)集是利用開(kāi)源軟件無(wú)線電平臺(tái)GNU Radio生成,在產(chǎn)生過(guò)程中除了采用了大量真實(shí)語(yǔ)音信號(hào),采用了GNU Radio中動(dòng)態(tài)信道模型模擬信道效應(yīng),包括頻率偏、相位偏、高斯白噪聲和頻率選擇性衰落等。具體數(shù)據(jù)集的參數(shù)見(jiàn)表1。

        表1 RaidoML2016.10a數(shù)據(jù)集的相關(guān)參數(shù)

        3.2 CNN的識(shí)別準(zhǔn)確率

        實(shí)驗(yàn)中,將數(shù)據(jù)集220 000個(gè)樣本劃分為訓(xùn)練集和測(cè)試集,各占樣本總量的80%和20%。實(shí)驗(yàn)使用tensorflow作為后端,使用keras庫(kù)搭建神經(jīng)網(wǎng)絡(luò)訓(xùn)練,并基于Nvidia GEFORCE GTX1050Ti圖形處理器進(jìn)行神經(jīng)網(wǎng)絡(luò)的計(jì)算。使用的優(yōu)化算法為Adam[20],Adam優(yōu)化算法是改進(jìn)的隨機(jī)梯度下降算法,是Momentum算法和RMSprop算法的結(jié)合體。網(wǎng)絡(luò)的損失函數(shù)設(shè)置為交叉熵?fù)p失函數(shù),它刻畫(huà)的是網(wǎng)絡(luò)輸出概率與實(shí)際輸出概率的距離,即交叉熵越小,兩者概率分布越接近。在實(shí)驗(yàn)環(huán)境配置完畢后,將樣本輸入設(shè)置好參數(shù)的兩種網(wǎng)絡(luò)中,先后進(jìn)行訓(xùn)練與測(cè)試,分別得到識(shí)別結(jié)果。CNN的識(shí)別準(zhǔn)確率隨信噪比的變化,如圖3所示。

        可見(jiàn),CNN算法的識(shí)別準(zhǔn)確率均隨著信噪比的增加而逐漸增高。在信噪比為-20~-14 dB時(shí),算法的識(shí)別準(zhǔn)確率在10%左右。當(dāng)信噪比高于-4 dB時(shí),CNN的準(zhǔn)確率開(kāi)始高于60%。當(dāng)信噪比為-2 dB時(shí),CNN的識(shí)別準(zhǔn)確率約為70%。當(dāng)信噪比在6~18 dB時(shí),CNN的識(shí)別準(zhǔn)確率都趨于平緩。當(dāng)信噪比為18 dB時(shí),CNN的識(shí)別準(zhǔn)確率為78.5%。

        3.3 不同算法的對(duì)比

        將CNN與兩種特征提取的調(diào)制識(shí)別算法進(jìn)行對(duì)比。特征提取的調(diào)制識(shí)別算法使用的信號(hào)專(zhuān)家特征為1.2節(jié)中提到的四階累積量特征。對(duì)比的是SVM和KNN兩種算法,準(zhǔn)確率對(duì)比如圖3所示。

        圖3 CNN與SVM、KNN的識(shí)別準(zhǔn)確率對(duì)比

        可見(jiàn),在信噪比為-20~-16 dB時(shí),CNN、SVM以及KNN算法的識(shí)別準(zhǔn)確率均在10%左右。隨著信噪比的增加,3種算法的識(shí)別準(zhǔn)確率均呈現(xiàn)增高的趨勢(shì)。其中,CNN的識(shí)別準(zhǔn)確率增長(zhǎng)最快。在信噪比為0 dB時(shí),CNN的識(shí)別率值則最高,為75%,而SVM和KNN的識(shí)別準(zhǔn)確率低于25%。在信噪比為2 dB時(shí),SVM和KNN的識(shí)別準(zhǔn)確率呈現(xiàn)陡然上升趨勢(shì)。當(dāng)信噪比增加至4 dB之后,3種算法的識(shí)別準(zhǔn)確率均趨于平緩狀態(tài),CNN比SVM的準(zhǔn)確率高出約17%,比KNN的準(zhǔn)確率高出約20%。在信噪比為18 dB時(shí),CNN的識(shí)別率為78.5%,SVM為66.6%,KNN為67.0%??梢?jiàn),特征提取的調(diào)制識(shí)別算法幾乎在所有信噪比下識(shí)別準(zhǔn)確率都低于卷積神經(jīng)網(wǎng)絡(luò)。說(shuō)明,卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制識(shí)別算法不僅可以避免特征提取的計(jì)算步驟,還取得優(yōu)異的識(shí)別性能。

        3.4 CNN識(shí)別結(jié)果的混淆矩陣

        針對(duì)RML2016.10a數(shù)據(jù)集中多種調(diào)制類(lèi)型,進(jìn)一步研究CNN的識(shí)別性能,利用混淆矩陣來(lái)觀察每個(gè)類(lèi)型的識(shí)別情況?;煜仃嚨臋M坐標(biāo)為樣本的網(wǎng)絡(luò)預(yù)測(cè)信號(hào)類(lèi)型(預(yù)測(cè)標(biāo)簽),縱坐標(biāo)為這些樣本的實(shí)際信號(hào)類(lèi)型(真實(shí)標(biāo)簽)。圖4為CNN在信噪比為-18 dB時(shí)的識(shí)別結(jié)果混淆矩陣。

        圖4 在信噪比為-18 dB時(shí)CNN的混淆矩陣

        在混淆矩陣的網(wǎng)格中,每格中的數(shù)字表示樣本數(shù)量。以圖4為例,對(duì)于縱坐標(biāo)為8PSK的這一行數(shù)據(jù),對(duì)應(yīng)到橫坐標(biāo)可見(jiàn):網(wǎng)絡(luò)將8PSK正確預(yù)測(cè)為8PSK的樣本數(shù)量只有5個(gè),而將8PSK預(yù)測(cè)為AM-SSB的樣本數(shù)量為191個(gè),出現(xiàn)了嚴(yán)重的混淆。說(shuō)明由于低信噪比的影響,CNN的識(shí)別準(zhǔn)確率較差,對(duì)任意種類(lèi)的信號(hào)都難以識(shí)別。

        圖5為CNN在信噪比為0 dB時(shí)的識(shí)別結(jié)果混淆矩陣。圖5表明,CNN對(duì)大部分信號(hào)類(lèi)型都能進(jìn)行準(zhǔn)確識(shí)別,而對(duì)于AM-DSB和WBFM,16QAM和64QAM的識(shí)別效果較差。因?yàn)樯蓴?shù)據(jù)集時(shí),觀測(cè)窗口小,信息率低,信息之間關(guān)聯(lián)性小,所以難以區(qū)分AM-DSB和WBFM。而對(duì)于16QAM和64QAM,這兩種信號(hào)的IQ信息相似,也難以進(jìn)行分類(lèi)識(shí)別。另外,在0dB情況,QPSK和8PSK兩種信號(hào)也有較少的混淆。

        圖5 在信噪比為0 dB時(shí)CNN的混淆矩陣

        圖6為CNN在信噪比為18 dB時(shí)的識(shí)別結(jié)果混淆矩陣。圖6表明,在信噪比為18 dB時(shí),CNN對(duì)BPSK信號(hào)的識(shí)別準(zhǔn)確率較0 dB時(shí)有少許的提高,對(duì)于AM-DSB和WBFM,16QAM和64QAM的識(shí)別,CNN表現(xiàn)的效果仍然較差,而對(duì)于其他類(lèi)型信號(hào),CNN取得了較好的識(shí)別性能。

        圖6 在信噪比為18 dB時(shí)CNN的混淆矩陣

        4 結(jié) 語(yǔ)

        針對(duì)基于特征提取的調(diào)制信號(hào)識(shí)別算法準(zhǔn)確率不高的問(wèn)題,本文采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)用于調(diào)制信號(hào)的識(shí)別。卷積神經(jīng)網(wǎng)絡(luò)可以直接對(duì)二維樣本進(jìn)行特征學(xué)習(xí),避免專(zhuān)家特征計(jì)算過(guò)程,直接將調(diào)制信號(hào)的IQ分量作為網(wǎng)絡(luò)輸入。利用卷積層提取空間特征,還能學(xué)習(xí)到樣本的時(shí)序特征。本文采用國(guó)際標(biāo)準(zhǔn)數(shù)據(jù)集,其中的信號(hào)受多種信道效應(yīng)影響,接近真實(shí)通信環(huán)境。仿真結(jié)果表明,在信噪比大于-16 dB情況下,CNN的調(diào)制信號(hào)識(shí)別準(zhǔn)確率遠(yuǎn)遠(yuǎn)高于SVM和KNN,說(shuō)明基于卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制識(shí)別算法不僅可以避免人工提取專(zhuān)家特征,而且在性能上也有很大的優(yōu)勢(shì)。

        猜你喜歡
        特征提取信噪比準(zhǔn)確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        Bagging RCSP腦電特征提取算法
        保持信噪比的相位分解反褶積方法研究
        熟女中文字幕一区二区三区 | 日本变态网址中国字幕| 精品国产亚洲av成人一区| 蜜桃人妻午夜精品一区二区三区| 亚洲中文字幕在线综合| 免费人成小说在线观看网站| 久久精品免视看国产成人| 国产在线精品一区二区不卡| A阿V天堂免费无码专区| 久久一区二区视频在线观看| 成人影院视频在线免费观看| 亚洲中文字幕成人无码| 无码精品国产va在线观看| 国产精美视频| 久久伊人网久久伊人网| 国产自产二区三区精品| 亚洲另类无码专区首页| 一本色道久久88精品综合| 久久免费视频国产| 亚洲精品二区在线观看| 丝袜美腿在线播放一区二区| 粉嫩国产av一区二区三区| 久久精品无码一区二区三区免费| 99久久国产视频| 亚洲av毛片一区二区久久| 国产极品大奶在线视频| 日本一本之道高清不卡免费| 成人做爰视频www| 欧美zozo另类人禽交| 亚洲伊人av综合福利| 亚洲av色av成人噜噜噜| 亚洲 欧美 综合 在线 精品| 国产无遮挡裸体免费视频| 久久青草免费视频| 亚洲av中文字字幕乱码| 中文字幕久久波多野结衣av不卡| 毛片无码国产| 久久久久久av无码免费看大片 | 亚洲一区二区三区精品视频| 一二三四日本中文在线| 又黄又爽又色又刺激的视频|