李泊含, 劉蕓江, 李艷福
(空軍工程大學(xué)信息與導(dǎo)航學(xué)院,西安 710000)
隨著現(xiàn)代戰(zhàn)爭(zhēng)手段日益更新變革,不斷演化交替,2015年12月,美軍發(fā)布了名為《決勝電磁波:重拾美國(guó)電磁頻譜領(lǐng)域主宰地位》的研究報(bào)告,闡述了“低-零功率”電磁頻譜戰(zhàn)概念[1],在這之后,又不斷提出新概念,使得電磁頻譜在現(xiàn)代戰(zhàn)爭(zhēng)中成為繼陸、海、空、天、網(wǎng)絡(luò)(賽博)之后的第6個(gè)作戰(zhàn)域[2]。電磁頻譜資源是稀缺的自然資源,在軍民政共用的大環(huán)境下,電磁頻譜的高效管理和有效利用成為了研究熱點(diǎn),而無(wú)線通信信號(hào)的調(diào)制識(shí)別和分類(lèi)對(duì)于提高頻譜效率和解決頻譜短缺問(wèn)題均有著重要意義[3]。在非協(xié)作通信中,發(fā)送端的信號(hào)相關(guān)信息,譬如調(diào)制方式等是未知的,因此長(zhǎng)時(shí)間以來(lái)相關(guān)領(lǐng)域科研人員都在研究如何處理該類(lèi)信號(hào)。
自動(dòng)調(diào)制識(shí)別(Automatic Modulation Recognition,AMR)是對(duì)接收信號(hào)解調(diào)前的一個(gè)處理過(guò)程[4],能夠有效處理非協(xié)作通信中所接收到的信號(hào),對(duì)信號(hào)的調(diào)制類(lèi)型進(jìn)行分類(lèi),方便后續(xù)的解調(diào)工作。調(diào)制識(shí)別經(jīng)歷了從人工識(shí)別到自動(dòng)識(shí)別[5]的發(fā)展歷程,之后發(fā)展出了基于假設(shè)檢驗(yàn)的最大似然(Likelihood Based,LB)和基于特征提取(Featured Based,F(xiàn)B)的兩種識(shí)別方法[6]。其中,基于FB的識(shí)別方法由于所需先驗(yàn)知識(shí)較少,因此計(jì)算量較小,從而得到了廣泛的研究和發(fā)展。而隨著人工智能(Artificial Intelligence,AI),機(jī)器學(xué)習(xí)(Machine Learning,ML)以及深度學(xué)習(xí)(Deep Learning,DL)等技術(shù)的出現(xiàn),相關(guān)研究人員將神經(jīng)網(wǎng)絡(luò)技術(shù)運(yùn)用到了信號(hào)的調(diào)制識(shí)別方法中。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為一種深層的包含卷積計(jì)算的前饋神經(jīng)網(wǎng)絡(luò),是一種熱門(mén)且流行的DL方法。時(shí)延神經(jīng)網(wǎng)絡(luò)(Time Delay Neural Network,TDNN)[7]于1989年被提出,這是第一種出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò),它由兩個(gè)隱含層構(gòu)成,能夠提取到語(yǔ)音特征并發(fā)現(xiàn)其與時(shí)間之間的關(guān)系。在這之后,CNN的優(yōu)良性能和泛化性能使得這種技術(shù)得到快速發(fā)展,并被廣泛應(yīng)用于語(yǔ)音處理、圖像處理以及信號(hào)處理等多個(gè)領(lǐng)域。早期,很多研究人員都采取直接將基帶信號(hào)送入神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練識(shí)別[8-9]。PENG等[10]介紹了一種將信號(hào)轉(zhuǎn)換為星座圖并進(jìn)行CNN訓(xùn)練的方法,通過(guò)仿真對(duì)8種信號(hào)進(jìn)行了測(cè)試,實(shí)驗(yàn)證明,此方法能夠?qū)π盘?hào)調(diào)制方式進(jìn)行有效識(shí)別;WANG等[11]結(jié)合了在不同數(shù)據(jù)集上訓(xùn)練的兩個(gè)CNN。除了星座圖之外,還使用相位和正交樣本,在低信噪比的正交振幅調(diào)制(QAM)信號(hào)分類(lèi)中獲得更好的結(jié)果。但是前人的研究方法在不同的場(chǎng)景條件下還存在一些問(wèn)題,例如,對(duì)于數(shù)字調(diào)制信號(hào)與模擬調(diào)制信號(hào)的混合信號(hào)樣本識(shí)別率低、網(wǎng)絡(luò)模型泛化性能差以及提取特征能力較差等問(wèn)題亟待解決。
根據(jù)上述思路,本文在原有CNN的基礎(chǔ)上融入多尺度金字塔池化(Multi-Scale Pyramid Pooling,MSPP)提出MSPP-CNN算法。首先,根據(jù)真實(shí)的通信環(huán)境生成BPSK,QPSK,8PSK,16QAM,64QAM等11種不同的數(shù)字和模擬信號(hào)樣本。然后,結(jié)合多尺度金字塔池化(Multi-scale Pyramid Pooling,MSPP)進(jìn)行MSPP-CNN網(wǎng)絡(luò)模型的優(yōu)化與設(shè)計(jì),并對(duì)網(wǎng)絡(luò)模型進(jìn)行不同信噪比條件下的自動(dòng)調(diào)制識(shí)別訓(xùn)練、測(cè)試。最后,通過(guò)仿真與其他傳統(tǒng)特征提取算法以及CNN算法的識(shí)別準(zhǔn)確率做對(duì)比,驗(yàn)證本文算法相較于其他算法具有更優(yōu)性能。
目前,許多AMR算法被提出用于協(xié)助動(dòng)態(tài)頻譜接入和智能頻譜管理,這些算法主要分為L(zhǎng)B和FB兩大類(lèi)。其中,F(xiàn)B類(lèi)的算法可與機(jī)器學(xué)習(xí)或深度學(xué)習(xí)結(jié)合起來(lái),圖1為傳統(tǒng)基于特征的AMR流程圖。
圖1 基于特征的AMR流程圖Fig.1 Flow chart of FB-based AMR
首先將接收到的已調(diào)信號(hào)輸入,對(duì)其進(jìn)行特征提取,隨后,將提取出的特征代入所用分類(lèi)器,如SVM[12]和KNN[13]等中進(jìn)行訓(xùn)練、測(cè)試,最終,識(shí)別出其調(diào)制方式,再輸出對(duì)其進(jìn)行相應(yīng)的解調(diào)處理。
然而,人工選擇信號(hào)特征是一個(gè)繁瑣的過(guò)程,為了解決這個(gè)問(wèn)題,一些基于深度學(xué)習(xí)(DL)的AMR算法[14-15]被提出。與傳統(tǒng)的基于特征的算法相比,深度學(xué)習(xí)能夠自動(dòng)提取特征并得到更好的性能。圖2所示為基于DL的AMR流程圖。
圖2 基于DL的AMR流程圖Fig.2 Flow chart of DL-based AMR
圖2所示算法對(duì)信號(hào)進(jìn)行數(shù)據(jù)轉(zhuǎn)換和重構(gòu)等預(yù)處理,然后通過(guò)深度學(xué)習(xí)方法對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練和學(xué)習(xí),再進(jìn)行測(cè)試,從而識(shí)別出信號(hào)的調(diào)制方式。
深度學(xué)習(xí)方法中的卷積神經(jīng)網(wǎng)絡(luò)由于具有從高維非結(jié)構(gòu)化數(shù)據(jù)中提取代表性特征的良好能力而被廣泛應(yīng)用于AMR方法。調(diào)制分類(lèi)的性能一般由識(shí)別準(zhǔn)確率(Precision)來(lái)衡量,其算式為
(1)
式中:TP為真陽(yáng)性(預(yù)測(cè)為正,實(shí)際為正);TN為真陰性;FP為假陽(yáng)性;FN為假陰性。同時(shí),調(diào)制識(shí)別的詳細(xì)結(jié)果可以用機(jī)器學(xué)習(xí)領(lǐng)域的混淆矩陣來(lái)表示。
CNN一般由卷積層和池化層兩部分組成。其中,卷積層又由卷積核、濾波器和特征圖組成,卷積核是二維的矩陣,具有加權(quán)輸入,并像神經(jīng)元一樣生成輸出;濾波器則是由多個(gè)卷積核組成的三維矩陣,多出的一維是通道;特征圖是應(yīng)用于前一層的一個(gè)濾波器的輸出。池化層對(duì)前一層的特征圖進(jìn)行下采樣,通過(guò)遵循一系列卷積層來(lái)鞏固先前特征圖中的學(xué)習(xí)特征。故池化也可以被認(rèn)為是一種壓縮和泛化特征表示的技術(shù),從而普遍減少模型過(guò)擬合現(xiàn)象。
CNN中每一層輸出的特征圖上的像素點(diǎn)在原圖像上映射的區(qū)域大小被稱(chēng)為感受野,因?yàn)槊總€(gè)神經(jīng)元只感受局部的圖像區(qū)域,在更高層再將這些感受不同局部的神經(jīng)元綜合起來(lái),從而得到全局信息。通過(guò)這種方式減少連接的數(shù)目,即減少了神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練的權(quán)值參數(shù)的數(shù)量,亦被稱(chēng)為權(quán)值共享。以上兩點(diǎn)使得CNN在訓(xùn)練大數(shù)據(jù)集、提取特征效率上,相比其他神經(jīng)網(wǎng)絡(luò)具有更多的優(yōu)勢(shì)。
在卷積神經(jīng)網(wǎng)絡(luò)中加入激活函數(shù)后,信號(hào)的表示變成非線性形式。一階、二階統(tǒng)計(jì)量不能夠完備地表示出信號(hào)的統(tǒng)計(jì)特征,即信息沒(méi)有全部包含在一、二階統(tǒng)計(jì)量中,更高階的統(tǒng)計(jì)量中也包含了大量有用的信息。而信號(hào)的高階累積量就是高階統(tǒng)計(jì)量中的一個(gè)主要統(tǒng)計(jì)量,本文對(duì)比的特征提取算法使用高階累積量作為樣本特征,k階累積量ckx(τ1,τ2,…,τk-1)的定義為
ckx(τ1,τ2,…,τk-1)=
cum(x(n),x(n+τ1),…,x(n+τk-1))
(2)
式中:x(n)為信號(hào);cum(·)為累積函數(shù)。由此可得p階混合矩的概念,即
Mpq=E[x(n)p-qx*(n)q]
(3)
式中:*表示共軛;q為不超過(guò)p/2的整數(shù)。由式(2)可得到各階累積量定義為
(4)
本文設(shè)計(jì)了一種使用多尺度金字塔池化網(wǎng)絡(luò)的深度CNN模型來(lái)進(jìn)行調(diào)制信號(hào)識(shí)別,網(wǎng)絡(luò)的深化可以對(duì)輸入特征抽象的層次更深入,對(duì)其理解的準(zhǔn)確度相對(duì)來(lái)說(shuō)也就更深。而為了更好地適應(yīng)深度的卷積神經(jīng)網(wǎng)絡(luò),同時(shí),也為了得到更多的非線性因素,本文在傳統(tǒng)CNN模型的基礎(chǔ)上加入了批量歸一化層,并應(yīng)用了一種多尺度金字塔池化網(wǎng)絡(luò)。如圖3所示。
圖3 MSPP-CNN網(wǎng)絡(luò)模型圖Fig.3 MSPP-CNN network model
本文設(shè)計(jì)的模型由6個(gè)卷積層和1個(gè)全連接層組成,其中,除了最后一個(gè)卷積層外,每個(gè)卷積層后都有一個(gè)批量歸一化層、激活層和池化層。前5個(gè)卷積層使用校正線性單元(ReLU)激活函數(shù)和金字塔池化層處理樣本,在最后一個(gè)卷積層中,用平均池化層替代金字塔池化層來(lái)保留經(jīng)多次篩選過(guò)的信息特征。輸出使用軟最大輸出函數(shù)(Softmax)作為激活函數(shù)。算法流程如圖4所示。
圖4 MSPP-CNN算法流程圖Fig.4 Flow chart of MSPP-CNN algorithm
1≤i≤M-m+1,1≤j≤N-n+1。
(5)
同時(shí),為了不丟失輸入圖像邊緣的許多重要信息,在進(jìn)行卷積操作前,先采用SAME填充方式在圖像周?chē)畛湎袼攸c(diǎn),降低信息的丟失率,對(duì)于一幅圖像大小為n×n且過(guò)濾器尺寸為f×f的SAME運(yùn)算為
[(n+2p)×(n+2p)]×(f×f)→
(n+2p-f+1)×(n+2p-f+1)
(6)
式中,p=(f-1)/2。
對(duì)信號(hào)進(jìn)行卷積運(yùn)算后,再進(jìn)行池化處理。池化又稱(chēng)為下采樣,是一種對(duì)特征進(jìn)行降維從而減少參數(shù)、提升計(jì)算速度的方法,池化分為平均池化與最大池化:最大池化能夠盡可能多地篩選出有用的信息特征;平均池化能夠保留已篩選的有用信息。當(dāng)對(duì)一個(gè)矩陣D進(jìn)行下采樣時(shí),先對(duì)其分塊,一般的分塊操作是不重疊的,其中,第ij個(gè)塊可以表示為
(7)
(8)
(9)
同時(shí),本文采用的ReLU和Softmax兩個(gè)激活函數(shù)分別為
ReLU(x)=max(0,x)
(10)
(11)
多尺度金字塔池化(MSPP)是根據(jù)空間金字塔池化網(wǎng)絡(luò)(Spatial Pyramid Pooling Networks,SPP-Net)[16]結(jié)合信號(hào)調(diào)制識(shí)別的特點(diǎn)提出的一種池化技術(shù)。SPP-Net被用于提取非固定尺寸圖片特征的卷積神經(jīng)網(wǎng)絡(luò),使網(wǎng)絡(luò)可輸入任意圖片,并生成固定大小的輸出。與傳統(tǒng)CNN網(wǎng)絡(luò)不同,SPP-Net不需要對(duì)圖像進(jìn)行剪裁或者包裹處理,而是可以直接對(duì)輸入的任意大小的圖像進(jìn)行處理。對(duì)于信號(hào)而言,使用一種并行的金字塔池化,即多尺度金字塔池化對(duì)輸入進(jìn)行并行處理,能夠賦予網(wǎng)絡(luò)更強(qiáng)的特征表達(dá)和泛化性能。
假設(shè)輸入數(shù)據(jù)大小為(c,hin,win),分別表示通道數(shù)、高度和寬度,池化塊大小為n×n,則核(Kernel)大小、步長(zhǎng)(Stride)大小分別為
9日深夜,一些示威者開(kāi)始強(qiáng)行占領(lǐng)郵電大樓;一些人前往火車(chē)站朝開(kāi)往莫斯科的特快列車(chē)扔石頭,打砸車(chē)窗玻璃,叫嚷“俄國(guó)狗……”;還有一些人則動(dòng)用刀子、石塊、皮帶對(duì)付執(zhí)勤警察,甚至搶奪其武器。赫魯曉夫獲悉事態(tài)近乎失控后終于明白:“不動(dòng)武是不行的?!薄安豢梢詫?duì)這種狂熱聽(tīng)之任之?!盵5](P163-164)于是,他命令坦克、摩托化步兵和內(nèi)務(wù)部隊(duì)進(jìn)入第比利斯市區(qū)。隨后,軍方動(dòng)用坦克驅(qū)散了主要街道和列寧廣場(chǎng)上的人群。一些人負(fù)隅頑抗,結(jié)果遭到了鎮(zhèn)壓。據(jù)不完全統(tǒng)計(jì),“至少有20名示威者被打死,60人受傷,被捕入獄的人更多?!盵9](P298-299)
(12)
(13)
其中:「·,·?為向上取整符號(hào);?·,·」為向下取整符號(hào)。則
(14)
可以驗(yàn)證得到,池化后的矩陣大小即為(n,n)。
根據(jù)本文設(shè)計(jì)的MSPP-CNN各層結(jié)構(gòu)以及步驟,對(duì)卷積層、池化層和歸一化層進(jìn)行具體分析。本文模型與傳統(tǒng)CNN不同,由于具有一定深度,為了輸入、輸出的計(jì)算方便,特別加入了BN層,即批量歸一化層。輸入層輸入的樣本大小為1024×1×1,其中,1024為每幀的樣本數(shù),網(wǎng)絡(luò)深度定為1。根據(jù)輸入的樣本類(lèi)型和特點(diǎn),設(shè)定每一個(gè)卷積層的卷積核尺寸為1×8,步長(zhǎng)為1,使用SAME填充方式進(jìn)行填充,1~6層的金字塔池化層大小分別為16,24,32,48,64,96,逐層增加。經(jīng)過(guò)第1個(gè)卷積層,輸入信號(hào)的卷積表示為
(15)
式中:x1_c為卷積層輸出;xi_q為輸入原始信號(hào)SAME填充后的IQ樣本;w1_c和b1_c分別為第1個(gè)卷積層的權(quán)重和偏置,均為可學(xué)習(xí)參數(shù)。
隨后,經(jīng)過(guò)BN層對(duì)處理后的樣本進(jìn)行批量歸一化,BN層置于卷積層與激活層之間,能夠?qū)?shù)據(jù)都轉(zhuǎn)換在均值為0、方差為1的狀態(tài)下。經(jīng)過(guò)第1個(gè)BN層,其歸一化過(guò)程表示為
x1_b=c1_bx1_c+k1_b
(16)
式中:x1_b為BN層輸出;c1_b為x1_c的方差;k1_b為x1_c的均值。均為可學(xué)習(xí)重構(gòu)參數(shù),能夠讓網(wǎng)絡(luò)學(xué)習(xí)恢復(fù)出原始網(wǎng)絡(luò)所要學(xué)習(xí)的特征分布,使得每層數(shù)據(jù)分布一致。訓(xùn)練會(huì)較容易收斂,同時(shí)控制梯度爆炸,防止梯度消失以及過(guò)擬合。
在進(jìn)行了批量歸一化處理后,特征圖經(jīng)過(guò)激活函數(shù)層,施加激活函數(shù)為提取的特征加入非線性因素,使本文模型具有更強(qiáng)的表達(dá)能力??紤]到可能出現(xiàn)的梯度彌散問(wèn)題以及網(wǎng)絡(luò)的稀疏性,選取ReLU激活函數(shù)σ(·)對(duì)x1_b進(jìn)行處理,算式為
x1_r=σ(x1_b)。
(17)
之后進(jìn)入池化層,池化層步幅為2,池化塊大小為n×n,n為池化層數(shù),池化能夠?qū)⑿∴徲騼?nèi)的特征點(diǎn)整合,得到新的特征,以便進(jìn)行下一步的學(xué)習(xí)訓(xùn)練。第1個(gè)池化層的池化過(guò)程可表示為
x1_p=Pn×n(x1_r)。
(18)
以上即第1個(gè)卷積層所進(jìn)行的步驟,包含了卷積、批量歸一化、激活和池化4步。同樣,之后的4個(gè)卷積層重復(fù)上述4步,提取出更抽象的特征,以得到輸出x5_p。最后一個(gè)卷積層,用平均池化層替代金字塔池化層,池化塊大小為1×32,其輸入為xL_b,輸出xL_p可以表示為
xL_p=avgpooling1×32(xL_b)。
(19)
最終得到大小為1×1×96的樣本,再將其輸入至全連接層,全連接層能夠?qū)⒎植际教卣饔成涞綐颖緲?biāo)記空間,即全連接層可以將特征整合到一起,極大減少了特征位置對(duì)分類(lèi)帶來(lái)的影響。使用Softmax函數(shù)作為激活函數(shù)來(lái)滿(mǎn)足多分類(lèi)的目的,神經(jīng)元的個(gè)數(shù)與標(biāo)簽數(shù)相同,本文模型中調(diào)制信號(hào)類(lèi)型有11種,該層的輸出預(yù)測(cè)標(biāo)簽ys為
ys=ρ(wsxL_p+bs)
(20)
式中:ρ(·)為Softmax激活函數(shù);ws和bs分別為全連接層的權(quán)重和偏置,均為可學(xué)習(xí)參數(shù)。
以上即為本文設(shè)計(jì)的MSPP-CNN信號(hào)調(diào)制識(shí)別模型。
本文使用Windows10家庭版64位操作系統(tǒng)下的Matlab軟件深度學(xué)習(xí)工具箱,基于Nvidia GeForce GTX 1650Ti圖像處理器進(jìn)行網(wǎng)絡(luò)模型的搭建與計(jì)算訓(xùn)練。主要通過(guò)不同信噪比下的訓(xùn)練過(guò)程與測(cè)試幀的混淆矩陣對(duì)算法的性能進(jìn)行分析,并通過(guò)與其他算法進(jìn)行對(duì)比來(lái)驗(yàn)證此算法具有更好的性能。
首先,使用Matlab生成含有110 000個(gè)樣本的數(shù)據(jù)集,內(nèi)含有11種調(diào)制信號(hào),分別為8種數(shù)字調(diào)制信號(hào)BPSK,QPSK,8PSK,16QAM,64QAM,PAM4,GFSK和CPFSK,以及3種模擬調(diào)制信號(hào)B-FM,DSB-AM和SSB-AM。每一種調(diào)制信號(hào)含有10000幀,其中,8000幀用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),1000幀用于驗(yàn)證,最后1000幀用來(lái)獲得最終分類(lèi)準(zhǔn)確度。生成信號(hào)參數(shù)如表1所示。
表1 信號(hào)樣本參數(shù)Table 1 Parameters of signal sample
為了使生成信號(hào)樣本更趨于實(shí)際,給信號(hào)施加了加性高斯白噪聲(Additive White Gaussian Noise,AWGN),萊斯多徑衰落以及時(shí)鐘偏移后再進(jìn)行調(diào)制轉(zhuǎn)換,得到形式為a+bi的信號(hào)原始樣本作為輸入。
其中,通過(guò)AWGN通道時(shí),給信號(hào)增加了信噪比為-18~18 dB的AWGN,信噪比的算式為
(21)
式中:PS為信號(hào)功率;PN為白噪聲功率。
隨后,通過(guò)萊斯多徑衰落信道,信號(hào)是復(fù)高斯信號(hào)和直射分量的疊加(即正弦波加窄帶高斯過(guò)程),其包絡(luò)的概率密度函數(shù)服從萊斯分布,即
(22)
(23)
時(shí)鐘偏移是由于時(shí)鐘源到達(dá)不同寄存器所經(jīng)歷路徑的驅(qū)動(dòng)和負(fù)載不同,時(shí)鐘邊沿的位置有所差異,由此造成了時(shí)鐘偏移,其中,時(shí)鐘偏移因子C的算式為
(24)
式中,Δclock為時(shí)鐘偏移量。同樣地,對(duì)每幀的頻率偏移fo和采樣率偏移(SFO,用OSFO表示)由時(shí)鐘偏移因子、采樣率fs和中心頻率fc(·)所決定,分別為
fo=-(C-1)fc(1)
(25)
OSFO=C×fs。
(26)
隨后,生成通過(guò)通道后減損的幀,同時(shí),生成其所對(duì)應(yīng)的調(diào)制類(lèi)型標(biāo)簽以備用。
首先,將網(wǎng)絡(luò)迭代輪數(shù)設(shè)置為18,這是在網(wǎng)絡(luò)深度為2的情況下,經(jīng)過(guò)多次訓(xùn)練仿真對(duì)比得出的較為合適的訓(xùn)練輪數(shù),其平衡了訓(xùn)練時(shí)間和識(shí)別準(zhǔn)確度之間的關(guān)系。其次,初步設(shè)置學(xué)習(xí)率為0.01,通過(guò)算法可將大部分參數(shù)優(yōu)化至極小值附近,但仍存在梯度過(guò)大的參數(shù)。若學(xué)習(xí)率過(guò)大,則已經(jīng)優(yōu)化得差不多的參數(shù)可能會(huì)出現(xiàn)不穩(wěn)定的情況。故設(shè)置每經(jīng)過(guò)9輪的訓(xùn)練,學(xué)習(xí)率降低10%,以便進(jìn)行更充分的參數(shù)優(yōu)化和模型訓(xùn)練。MSPP-CNN模型的參數(shù)如表2所示。
表2 MSPP-CNN模型參數(shù)Table 2 Parameters of MSPP-CNN model
本文將訓(xùn)練過(guò)程的準(zhǔn)確率曲線進(jìn)行平滑處理后,提取了每輪次訓(xùn)練完成后的識(shí)別準(zhǔn)確率和損失,分別如圖5、圖6所示。
圖5 不同信噪比下的準(zhǔn)確率曲線Fig.5 Accuracy curves of different SNR
圖6 不同信噪比下的損失曲線Fig.6 Loss curves of different SNR
首先,在低信噪比(-18 dB)條件下進(jìn)行訓(xùn)練,訓(xùn)練開(kāi)始時(shí),識(shí)別準(zhǔn)確率為10%,誤差損失為2.5;在進(jìn)行10輪迭代后,模型的準(zhǔn)確率約為36%,其損失約為2;而當(dāng)?shù)_(dá)到最終次時(shí),最終的準(zhǔn)確率為56%,損失降到了1.4。針對(duì)每個(gè)調(diào)制類(lèi)型的具體識(shí)別分析,將在之后的混淆矩陣分析中展開(kāi)。
接下來(lái),在信噪比為0 dB時(shí)進(jìn)行訓(xùn)練,與-18 dB時(shí)不同,準(zhǔn)確率曲線在開(kāi)始時(shí)就有明顯上升趨勢(shì),達(dá)到40%左右時(shí)開(kāi)始保持平穩(wěn)增加態(tài)勢(shì),損失在同一時(shí)間段迅速達(dá)到1.5,這與信噪比的升高有著很大的關(guān)系;經(jīng)過(guò)10輪迭代后,準(zhǔn)確率達(dá)到57%左右,損失約為1.3;經(jīng)過(guò)18輪迭代,準(zhǔn)確率停至62.98%,損失降至0.9。相比信噪比為-18 dB時(shí)有明顯的性能提升,說(shuō)明此模型一定程度上會(huì)受到信噪比的影響,但也具有一定的抗噪性能。
最后,對(duì)信噪比為18 dB的情況進(jìn)行分析,全覽整個(gè)訓(xùn)練過(guò)程,可以明確的是,在高信噪比條件下,本文模型具有非常優(yōu)良的性能。同0 dB時(shí)一樣,準(zhǔn)確率曲線一開(kāi)始便迅速上升達(dá)到80%左右之后趨于穩(wěn)定,損失也迅速下降至0.4左右;10輪迭代后,準(zhǔn)確率和損失曲線有一小波動(dòng),隨后分別進(jìn)入穩(wěn)定上升和下降期,最終準(zhǔn)確率達(dá)到92.04%,損失為0.2。
為了進(jìn)一步研究本文模型性能,分別對(duì)不同信噪比下的調(diào)制識(shí)別結(jié)果(即其混淆矩陣)進(jìn)行具體研究分析,如圖7所示。
圖7 不同信噪比的混淆矩陣Fig.7 Confusion matrix of different SNRs
圖7(a)所示為信噪比為-18 dB時(shí)的混淆矩陣。其中,橫坐標(biāo)為預(yù)測(cè)調(diào)制類(lèi)型,縱坐標(biāo)為實(shí)際調(diào)制類(lèi)型。由混淆矩陣可以看出,在低信噪比情況下,混淆結(jié)果較為雜亂,并無(wú)明顯規(guī)律可循。但值得注意的是,盡管信噪比很低,但是B-FM,CPFSK,GFSK的識(shí)別準(zhǔn)確度均高于75%,這說(shuō)明上述3種調(diào)制類(lèi)型受信噪比影響較其他類(lèi)型而言相對(duì)較小。
圖7(b)所示為信噪比為0 dB時(shí)的混淆矩陣。提高信噪比后,網(wǎng)絡(luò)預(yù)測(cè)性能有顯著提高,尤其對(duì)B-FM,CPFSK,GFSK均高達(dá)90%以上,幾乎不受噪聲影響。而此混淆矩陣已經(jīng)能夠初步判斷出,網(wǎng)絡(luò)對(duì)64QAM和16QAM,8PSK和QPSK,DSB-AM和SSB-AM這3對(duì)調(diào)制類(lèi)型存在明顯的混淆,出現(xiàn)這種現(xiàn)象分別因?yàn)椋?6QAM是64QAM的子集,而每幀只能攜帶128個(gè)符號(hào),故網(wǎng)絡(luò)會(huì)混淆這兩種調(diào)制類(lèi)型;而對(duì)于QPSK和8-PSK,在通道衰落和頻率偏移引發(fā)相位旋轉(zhuǎn)后,這兩種調(diào)制類(lèi)型的星座圖看起來(lái)很相似,所以會(huì)出現(xiàn)混淆的情況;DSB-AM和SSB-AM,一個(gè)是雙邊帶調(diào)幅,另一個(gè)是單邊帶調(diào)幅,兩者還具有同樣的抗噪性能,故存在混淆的情況。
圖7(c)所示為信噪比為18 dB時(shí)的混淆矩陣??梢钥闯?,除了64QAM和16QAM,8PSK和QPSK,DSB-AM和SSB-AM這3對(duì)調(diào)制類(lèi)型,其他調(diào)制類(lèi)型的準(zhǔn)確率全部達(dá)到99%以上,B-FM,CPFSK和GFSK更是高達(dá)100%,網(wǎng)絡(luò)達(dá)到預(yù)期效果。
最后,對(duì)本文所提算法與傳統(tǒng)CNN算法以及傳統(tǒng)基于特征提取的SVM[12],KNN[13]算法進(jìn)行性能對(duì)比,其中,進(jìn)行對(duì)比的CNN模型為傳統(tǒng)兩層卷積神經(jīng)網(wǎng)絡(luò)。不同算法的對(duì)比如圖8所示。
圖8 不同算法的對(duì)比圖Fig.8 Comparison chart of different algorithms
由圖8可以看出:當(dāng)信噪比為-18 dB時(shí),CNN,SVM和KNN算法的識(shí)別準(zhǔn)確率約為10%,而本文算法識(shí)別準(zhǔn)確率為56%,已經(jīng)遠(yuǎn)高于其他3種算法;隨著信噪比的增加,當(dāng)信噪比為-18~-4 dB時(shí),其他3種算法識(shí)別準(zhǔn)確率呈快速上升趨勢(shì),而本文算法識(shí)別準(zhǔn)確率穩(wěn)定上升;當(dāng)信噪比為-4~-2 dB時(shí),本文算法與傳統(tǒng)CNN算法識(shí)別準(zhǔn)確率最為接近;當(dāng)信噪比增至4 dB后,SVM,KNN算法的識(shí)別準(zhǔn)確率趨于平緩;當(dāng)信噪比為4~10 dB時(shí),CNN算法與本文算法識(shí)別準(zhǔn)確率依舊呈增長(zhǎng)趨勢(shì),直至10 dB時(shí)傳統(tǒng)CNN算法的識(shí)別準(zhǔn)確度開(kāi)始趨于平緩。最后,當(dāng)信噪比為18 dB時(shí),本文算法的識(shí)別準(zhǔn)確度為92.04%,CNN算法為78%,SVM算法為66.6%,KNN算法為67%。由圖8可以得出,本文算法無(wú)論是在低信噪比還是高信噪比的條件下,其性能均優(yōu)于其他3種算法,尤其是低信噪比時(shí),性能更是達(dá)到50%以上,遠(yuǎn)超其他3種算法。
本文提出了一種基于多尺度金字塔池化的卷積神經(jīng)網(wǎng)絡(luò)算法。在設(shè)計(jì)時(shí)考慮到不同調(diào)制信號(hào)的不同特征以及網(wǎng)絡(luò)模型所需的泛化能力和特征表達(dá),使用多尺度金字塔池化來(lái)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu);并使用批量歸一化層和Dropout值來(lái)優(yōu)化深度網(wǎng)絡(luò)中的參數(shù),提升網(wǎng)絡(luò)的泛化性能。最后,對(duì)根據(jù)真實(shí)通信環(huán)境生成的不同信噪比下的多種調(diào)制信號(hào)使用所設(shè)計(jì)的網(wǎng)絡(luò)模型進(jìn)行調(diào)制識(shí)別訓(xùn)練與測(cè)試。仿真結(jié)果表明,當(dāng)信噪比為-18 dB時(shí),網(wǎng)絡(luò)已具有50%以上的識(shí)別準(zhǔn)確率,而當(dāng)信噪比為18 dB時(shí),識(shí)別準(zhǔn)確率達(dá)到92.04%。識(shí)別準(zhǔn)確率全程高于SVM,KNN以及傳統(tǒng)CNN算法,驗(yàn)證了本文所提算法的有效性以及高識(shí)別準(zhǔn)確率。