趙梓存,欒風(fēng)虎,禹永植
哈爾濱工程大學(xué) 信息與通信工程學(xué)院,黑龍江 哈爾濱 150001
自動(dòng)調(diào)制識(shí)別技術(shù)(automatic modulation recognition,AMR)是非合作通信的關(guān)鍵技術(shù),是通信中信號(hào)檢測(cè)和解調(diào)的中間步驟,在軍用和民用領(lǐng)域有著廣泛的應(yīng)用。在軍用領(lǐng)域,當(dāng)識(shí)別到敵方調(diào)制信號(hào)時(shí)能夠?qū)υ撔盘?hào)進(jìn)行干擾;在民用領(lǐng)域,自動(dòng)調(diào)制識(shí)別技術(shù)是頻譜分配[1]、信號(hào)解調(diào)的基礎(chǔ)。在當(dāng)今日益復(fù)雜的電磁環(huán)境下,自動(dòng)調(diào)制識(shí)別技術(shù)受到研究者的廣泛關(guān)注。傳統(tǒng)的調(diào)制識(shí)別包括極大似然調(diào)制識(shí)別算法和特征提取算法?;跇O大似然算法[2]是利用調(diào)制信號(hào)建立似然函數(shù),再根據(jù)計(jì)算得到的似然函數(shù)值和門限值進(jìn)行比較完成信號(hào)分類。特征提取算法需要人工提取信號(hào)的特征,其中包括基于高階統(tǒng)計(jì)量[3]、基于參數(shù)統(tǒng)計(jì)[4]、基于星座圖[5]、基于循環(huán)譜[6]、基于時(shí)頻變換域[7]等方法。隨著機(jī)器學(xué)習(xí)技術(shù)的快速發(fā)展,神經(jīng)網(wǎng)絡(luò)提取特征的能力廣泛應(yīng)用在通信信號(hào)識(shí)別中。目前基于深度學(xué)習(xí)的自動(dòng)調(diào)制識(shí)別技術(shù)分為2類:1) 將經(jīng)過(guò)AD采樣得到的同相正交信號(hào)通過(guò)時(shí)頻變換或星座圖[8]轉(zhuǎn)換成圖像,再利用深度學(xué)習(xí)在圖像領(lǐng)域的處理技術(shù)完成對(duì)信號(hào)的分類識(shí)別;2) 使用深度學(xué)習(xí)的技術(shù)對(duì)同向正交分量直接進(jìn)行處理完成識(shí)別。張思成等[9]使用一種輕量級(jí)的深度神經(jīng)網(wǎng)絡(luò),對(duì)8種數(shù)字調(diào)制信號(hào)構(gòu)建星座圖完成分類識(shí)別。OShea 等[10-12]使用8種數(shù)字調(diào)制信號(hào)和3種模擬調(diào)制信號(hào)構(gòu)建數(shù)據(jù)集利用GNU Radio對(duì)該數(shù)據(jù)集建模,并使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)該數(shù)據(jù)集中的信號(hào)進(jìn)行識(shí)別,得到了優(yōu)于傳統(tǒng)算法的分類效果,但是使用二維卷積使得訓(xùn)練參數(shù)量較多,訓(xùn)練時(shí)間較長(zhǎng)且0 dB以上信噪比環(huán)境下識(shí)別率還有待提高。
本文提出一種基于深度學(xué)習(xí)的信號(hào)調(diào)制識(shí)別算法,采用2016.10A數(shù)據(jù)集利用一維卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(long short-term memory,LSTM)結(jié)合的一維卷積長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)(convolutional and long short neural network,CLSNN)。使用該網(wǎng)絡(luò)提取信號(hào)特征參數(shù),并且實(shí)現(xiàn)對(duì)11種調(diào)制信號(hào)的識(shí)別分類,該算法結(jié)合一維卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的優(yōu)點(diǎn),減少訓(xùn)練參數(shù)提升了識(shí)別率。仿真實(shí)驗(yàn)表明,該算法較好地實(shí)現(xiàn)了調(diào)制信號(hào)識(shí)別分類任務(wù),驗(yàn)證了該方法的有效性。
假設(shè)接收調(diào)制信號(hào)模型為
式中:Yn(t)為接收到的調(diào)制信號(hào);Γ為對(duì)應(yīng)的調(diào)制函數(shù);xn(t)為 傳輸?shù)男盘?hào);H(t)為信道函數(shù);n(t)為加性高斯白噪聲;n=1,2,···,N為對(duì)應(yīng)的一種調(diào)制方 式,其中包含數(shù)字調(diào)制和模擬調(diào)制方式。
人工神經(jīng)網(wǎng)絡(luò)是模仿生物神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型,而卷積神經(jīng)網(wǎng)絡(luò)是一種使用卷積運(yùn)算的特殊神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)元為全連接結(jié)構(gòu),神經(jīng)元之間的連接權(quán)值共享,這使得卷積神經(jīng)網(wǎng)絡(luò)能夠更高效地處理圖像或信號(hào)數(shù)據(jù),使用更少的訓(xùn)練樣本得到更好的泛化能力。Lecun等[13]在1997年提出一種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)用來(lái)識(shí)別手寫數(shù)字,取得較好效果。
長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)是由Hochreiter[14]提出的,這是一種遞歸網(wǎng)絡(luò)結(jié)構(gòu),有效處理一組與時(shí)間相關(guān)的數(shù)據(jù)序列。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò),需要的參數(shù)更少,學(xué)習(xí)速度更快,并且改善了梯度爆炸、梯度消失和對(duì)長(zhǎng)時(shí)間數(shù)據(jù)序列記憶能力不足等問(wèn)題。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)結(jié)構(gòu)
圖1中共有3個(gè)門,左邊的為忘記門σ1,決定接收的長(zhǎng)期信息和以往的長(zhǎng)期信息;中間為輸入門σ2,利用此刻信息更新長(zhǎng)期狀態(tài);最右側(cè)為輸出門σ3,利用長(zhǎng)期狀態(tài)更新輸出。最后的輸出為
式中:σ為激活函數(shù)sigmoid,W0為權(quán)重向量,ht-1、xt為輸入向量,b0為偏置。
本文所用的調(diào)制識(shí)別數(shù)據(jù)集是Timothy 構(gòu)建的2016.10A數(shù)據(jù)集[10],該數(shù)據(jù)集共有220 000個(gè)信號(hào)樣本,每個(gè)信號(hào)樣本由I、Q兩路信號(hào)構(gòu)成,每路信號(hào)有128個(gè)采樣點(diǎn),每個(gè)符號(hào)以8~16個(gè)采樣點(diǎn)進(jìn)行采集,數(shù)據(jù)形式為220 000×2×128。該數(shù)據(jù)集有3種模擬調(diào)制信號(hào)和8種數(shù)字調(diào)制信號(hào),分別為{8PSK, AM-DSB, AM-SSB, BPSK, CPFSK,GFSK, PAM4, QAM16, QAM64, QPSK, WBFM}。每種信號(hào)共有20 000個(gè)樣本,并且信噪比從-20~18 dB以每2 dB遞進(jìn),即每個(gè)調(diào)制信號(hào)每種信噪比共有1 000個(gè)樣本。為了模擬真實(shí)信道環(huán)境,該數(shù)據(jù)集中的調(diào)制信號(hào)加入了加性高斯白噪聲、多徑衰落、多普勒頻移以及脈沖噪聲等。
CLSNN網(wǎng)絡(luò)主要利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)以及長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)構(gòu)建一種新型訓(xùn)練網(wǎng)絡(luò)。因?yàn)閿?shù)據(jù)集中的調(diào)制信號(hào)為一維時(shí)間序列數(shù)據(jù),所以采用一維卷積和一維池化層對(duì)該數(shù)據(jù)進(jìn)行卷積、池化操作。CLSNN網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。最終的測(cè)試結(jié)果使用測(cè)試集評(píng)估模型的泛化分類能力。每次處理1 024組數(shù)據(jù)即輸入數(shù)據(jù)張量為[1 024:128:2],信號(hào)輸入到網(wǎng)絡(luò)之后先使用多個(gè)較小卷積核的卷積層去替代大卷積核的卷積層,目的是在保證具有相同感知野前提下提升網(wǎng)絡(luò)深度、增加判別能力,有利于特征提取并減少參數(shù)數(shù)量。卷積操作之后進(jìn)行池化操作,激活函數(shù)使用Relu函數(shù),池化能夠進(jìn)一步降低網(wǎng)絡(luò)參數(shù)。接下來(lái)使用dropout層,這使得數(shù)據(jù)特征在前向傳播的過(guò)程中一部分神經(jīng)元有一定概率停止工作,減少隱層之間的相互作用可以使網(wǎng)絡(luò)在訓(xùn)練時(shí)不會(huì)過(guò)于依賴局部的特征值,能夠使模型的泛化能力更強(qiáng),避免過(guò)擬合的情況出現(xiàn)。在BatchNormalization層中利用歸一化和線性化使輸入的數(shù)據(jù)均值和方差限制在一定范圍中,使數(shù)據(jù)分布較為穩(wěn)定,不用再去不斷地適應(yīng)上層網(wǎng)絡(luò)的分布變化,減少訓(xùn)練難度。經(jīng)過(guò)多個(gè)卷積池化操作后加入長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)能夠解決長(zhǎng)距離依賴,當(dāng)輸入數(shù)據(jù)特征為長(zhǎng)時(shí)間序列時(shí)能夠較好預(yù)測(cè)輸出特征值。輸出數(shù)據(jù)經(jīng)過(guò)3層全連接層提取特征完成最后分類。CLSNN網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。從表1可以看到CLSNN網(wǎng)絡(luò)使用2個(gè)卷積核為2的一維卷積層進(jìn)行特征提取,以代替卷積核大小為5的卷積層,這樣能夠提取相似的參數(shù)特征即具有相同的感知野。采用小的卷積核可以在減少計(jì)算量的同時(shí)增加網(wǎng)絡(luò)深度,使CLSNN網(wǎng)絡(luò)學(xué)習(xí)到深層的特征。
表1 CLSNN網(wǎng)絡(luò)結(jié)構(gòu)
圖2 CLSNN網(wǎng)絡(luò)結(jié)構(gòu)示意
實(shí)驗(yàn)在Linux環(huán)境下使用Tensorflow2.0深度學(xué)習(xí)框架完成2.2節(jié)CLSNN網(wǎng)絡(luò)構(gòu)建,實(shí)驗(yàn)CPU環(huán)境為12核的Intel i9-9920X CPU @ 3.50GHz,實(shí)驗(yàn)GPU環(huán)境為RTX A6000顯卡,顯存48 GB。將2016.10A數(shù)據(jù)集以訓(xùn)練集、驗(yàn)證集、測(cè)試集按照7:2:1劃分。
實(shí)驗(yàn)共迭代(epoch)100次,使用損失函數(shù)為交叉熵函數(shù)(crossentropy);迭代學(xué)習(xí)率為1 0-3,選擇使用較高的學(xué)習(xí)率有利于加速訓(xùn)練時(shí)間,加速收斂;優(yōu)化器使用Adam優(yōu)化器。
由圖3可以看出損失函數(shù)值和迭代次數(shù)的關(guān)系。迭代65次之前,訓(xùn)練集和測(cè)試集的損失函數(shù)值都在下降,說(shuō)明網(wǎng)絡(luò)在不斷學(xué)習(xí)處于一個(gè)理想狀態(tài)。迭代65次之后,雖然訓(xùn)練集損失函數(shù)在下降,但是驗(yàn)證集損失函數(shù)僅僅有輕微下降,說(shuō)明該網(wǎng)絡(luò)已經(jīng)接近收斂狀態(tài),到達(dá)迭代100次之后停止學(xué)習(xí)完成訓(xùn)練。訓(xùn)練總參數(shù)量為115 227,用時(shí)18 min。
圖3 訓(xùn)練集和驗(yàn)證集的損失函數(shù)值
為了體現(xiàn)一維卷積對(duì)處理信號(hào)調(diào)制方式識(shí)別的優(yōu)越性,本文對(duì)使用2016.10a數(shù)據(jù)集的多個(gè)二維卷積的神經(jīng)網(wǎng)絡(luò)進(jìn)行比較,比較結(jié)果如圖4所示。仿真中的單一信噪比的同一種信號(hào)個(gè)數(shù)為100,選取11種信號(hào)共1 100組信號(hào)數(shù)據(jù),隨機(jī)打亂后通過(guò)神經(jīng)網(wǎng)絡(luò)分類判斷得到本次識(shí)別率,并將上述操作重復(fù)100次得到加和平均的最終識(shí)別率。其中CNN2[11]為二維卷積神經(jīng)網(wǎng)絡(luò),CNN_resnet[15]為二維卷積神經(jīng)網(wǎng)絡(luò)加入Resnet殘差網(wǎng)絡(luò)結(jié)構(gòu)、CNN_LSTM[16]為二維卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)結(jié)合,CNN_BiLSTM[17]為二維卷積神經(jīng)和雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)結(jié)合。在-20~20 dB信噪比下,CLSNN網(wǎng)絡(luò)的整體信號(hào)識(shí)別率達(dá)到62.94%;CLSNN網(wǎng)絡(luò)在-4 dB信噪比下,識(shí)別率達(dá)到74.51%,高于同信噪比下二維卷積網(wǎng)絡(luò)9個(gè)百分點(diǎn),說(shuō)明本網(wǎng)絡(luò)在低信噪比下也有較好的分類識(shí)別表現(xiàn);在0 dB信噪比下,識(shí)別率達(dá)到90.32%,高于同信噪比下二維卷積網(wǎng)絡(luò)10個(gè)百分點(diǎn);CLSNN網(wǎng)絡(luò)在0 dB以上識(shí)別率均大于90%,高于同信噪比下二維卷積網(wǎng)絡(luò)近7個(gè)百分點(diǎn)??梢钥闯霰疚奶岢龅囊痪S卷積網(wǎng)絡(luò),在高信噪比下識(shí)別率比較穩(wěn)定,在低信噪比下也有較好表現(xiàn),在識(shí)別率性能方面遠(yuǎn)優(yōu)于二維卷積。
圖4 2016.10a數(shù)據(jù)集下CLSNN網(wǎng)絡(luò)與其他二維卷積網(wǎng)絡(luò)識(shí)別率比較
CLSNN網(wǎng)絡(luò)對(duì)不同調(diào)制信號(hào)識(shí)別率曲線如圖5所示。圖5為單一信噪比的識(shí)別率是由11種調(diào)制信號(hào)在該信噪比下的識(shí)別率加和平均得到。AM-SSB在全信噪比下都有90%以上的識(shí)別率,說(shuō)明CLSNN網(wǎng)絡(luò)對(duì)AM-SSB的識(shí)別率最好;其中AM-SSB、BPSK、CPFSK、GFSK、PAM4調(diào)制信號(hào)在0 dB以上的信噪比環(huán)境下都有90%以上的識(shí)別率;8PSK、AM-DSB、QAM16、QAM64、QPSK調(diào)制信號(hào)在0 dB以上的信噪比環(huán)境下都有80%以上的識(shí)別率;CLSNN網(wǎng)絡(luò)對(duì)WBFM信號(hào)的識(shí)別率最差,在0 dB以上的信噪比環(huán)境下僅有40%以上的識(shí)別率。
11種調(diào)制信號(hào)的歸一化混沌矩陣(SNR=0 dB)如圖6所示,可以看出[QAM16,QAM64]、[WBFM, AM-DSB]兩組調(diào)制信號(hào)容易分類誤判,使得最終這4種調(diào)制信號(hào)識(shí)別率下降。
圖5 CLSNN網(wǎng)絡(luò)對(duì)不同調(diào)制信號(hào)識(shí)別率曲線
圖6 調(diào)制信號(hào)的歸一化混沌矩陣(SNR=0dB)
圖7是11種調(diào)制信號(hào)的歸一化混沌矩陣(SNR=6 dB),從圖7可以看出,當(dāng)信噪比升高[QAM16,QAM64]2種調(diào)制信號(hào)仍然存在著分類誤判;AM-DSB信號(hào)能夠有效被識(shí)別,但是WBFM信號(hào)仍然容易被誤判為AM-DSB信號(hào),這主要是因?yàn)樵谔崛r(shí)域信息時(shí)2種信號(hào)被提取的特征參數(shù)較為相似造成的。-10 dB以下大部分的信號(hào)被判別為AM-SSB,導(dǎo)致AM-SSB信號(hào)在該信噪比下的識(shí)別率達(dá)到90%以上而其他信噪比的識(shí)別率較低。產(chǎn)生該現(xiàn)象是因?yàn)樾盘?hào)被噪聲完全淹沒(méi),導(dǎo)致接收到的數(shù)據(jù)從時(shí)域上看和AMSSB較為相近,當(dāng)神經(jīng)網(wǎng)絡(luò)提取信號(hào)特征時(shí),各種信號(hào)的特征也和AM-SSB特征相似,最終將其他調(diào)制信號(hào)分類為AM-SSB。從整體上看CLSNN網(wǎng)絡(luò)對(duì)11種調(diào)制信號(hào)分類識(shí)別有較好的效果。
5種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練所需參數(shù)對(duì)比如表2所示。本文提出的CLSNN網(wǎng)絡(luò)訓(xùn)練總參數(shù)僅有115 227個(gè),明顯少于CNN2、CNN_resnet、CNN_LSTM、CNN_BiLSTM,說(shuō)明一維卷積網(wǎng)絡(luò)結(jié)合長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)能夠有效降低訓(xùn)練參數(shù)量,加快訓(xùn)練速度,節(jié)省訓(xùn)練時(shí)間。
圖7 調(diào)制信號(hào)的歸一化混沌矩陣(SNR=16dB)
表2 訓(xùn)練參數(shù)量對(duì)比
本文設(shè)計(jì)一種新型神經(jīng)網(wǎng)絡(luò),一維卷積和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)結(jié)合用于提取調(diào)制信號(hào)特征。實(shí)驗(yàn)表明,使用相同數(shù)據(jù)集的前提下,本文算法識(shí)別性能優(yōu)于其他利用二維卷積構(gòu)建的網(wǎng)絡(luò)算法,具有良好的抗噪聲性;并且在訓(xùn)練參數(shù)量上也少于其他網(wǎng)絡(luò),節(jié)約訓(xùn)練時(shí)間。另外,本文算法對(duì)WBFM調(diào)制信號(hào)識(shí)別率較低,容易與AM-DSB調(diào)制信號(hào)產(chǎn)生混淆,-6 dB以下的信噪比環(huán)境調(diào)制信號(hào)識(shí)別率還有待提高。針對(duì)以上算法的局限性,未來(lái)將擴(kuò)大研究,對(duì)信號(hào)進(jìn)行預(yù)處理,減少噪聲影響,進(jìn)一步提升算法性能。